Der 26. Februar 2026 ist ein dicht gepackter Tag: Dario Amodei legt öffentlich die zwei roten Linien dar, die Anthropic gegenüber dem US Department of War (DoW) nicht überschreiten wird, Perplexity erhält OS-Level-Zugriff auf 800 Millionen Samsung-Geräte, GitHub erweitert Claude und Codex auf Copilot Business und Pro, und Eli Lilly weiht LillyPod ein — die bislang leistungsstärkste KI-Fabrik in der Pharmaindustrie.
Anthropic gegenüber dem Department of War
26. Februar — Dario Amodei, CEO von Anthropic, veröffentlicht eine öffentliche Stellungnahme zu den laufenden Gesprächen mit dem Department of War (DoW) der USA. Der Text legt zwei rote Linien dar, die Anthropic nicht überschreiten wird, selbst nicht unter Druck seitens der Regierung.
Anthropic ist der erste Anbieter von frontier-Modellen, der seine Modelle in die klassifizierten Netze der US-Regierung, in nationale Labore und für Kunden der nationalen Sicherheit ausgerollt hat. Claude wird für Geheimdienstanalyse, Modellierung, Einsatzplanung und Cyber-Operationen eingesetzt.
Die beiden abgelehnten Anwendungsfälle:
| Anwendungsfall | Position von Anthropic |
|---|---|
| Massenhafte inländische Überwachung | Unvereinbar mit demokratischen Werten. KI ermöglicht es, verstreute Daten zu vollständigen Porträts jeder Person in großem Maßstab zusammenzuführen. |
| Vollständig autonome Waffen | Die aktuellen Modelle sind nicht zuverlässig genug. Keine menschliche Aufsicht = inakzeptable Risiken für Soldaten und Zivilisten. |
Der DoW soll gefordert haben, dass Anthropic “jede legale Verwendung” akzeptiert und diese Schutzmaßnahmen entfernt. Bei Weigerung drohte der DoW damit, Anthropic als “Lieferkettenrisiko” zu kennzeichnen — ein Label, das noch nie für ein US-Unternehmen angewendet wurde und üblicherweise Gegnern vorbehalten ist. Amodei bemerkt die Ironie: Eine Drohung stuft sie als Sicherheitsrisiko ein, die andere betrachtet sie als wesentlich für die nationale Sicherheit.
Anthropic gibt an, für einen reibungslosen Übergang zur Verfügung zu stehen, falls der DoW einen anderen Anbieter wählt.
🔗 Erklärung von Dario Amodei zu unseren Gesprächen mit dem Department of War
Perplexity im Samsung Galaxy S26 integriert
26. Februar — Perplexity kündigt seine Integration in das Samsung Galaxy S26 als System-KI an, mit dem Wake-Word “Hey Plex”. Zum ersten Mal gewährt Samsung einem Drittanbieter, der weder Google noch Samsung ist, OS-Level-Zugriff.
Was die Integration ermöglicht:
| Funktion | Detail |
|---|---|
| Wake-Word | ”Hey Plex” + Seitentaste (Langes Drücken) |
| Nativer Zugriff | Notes, Calendar, Gallery, Clock, Reminders |
| Bixby | Verwendet die Perplexity-APIs für Echtzeit-Suche und -Schlussfolgerungen |
| Samsung Internet | Integration der Perplexity-APIs mit Agent-Browser-Fähigkeiten |
| Suchmaschine | Als Standardoption im Samsung Browser verfügbar |
Samsung hat das S26 um ein Multi-Agent-Modell herum konzipiert. Interne Daten zeigen, dass 8 von 10 Nutzern bereits mehr als zwei KI-Agenten pro Tag verwenden. Perplexity ist vorinstalliert auf allen S26, ohne Download oder Einrichtung. Mit 800 Millionen aktiven Samsung-Geräten im Jahr 2026 bedeutet die Vereinbarung einen massiven Hardware-Zugriff für Perplexity.
🔗 Perplexity-Blog — Samsung-Partnerschaft
Claude und Codex GA für Copilot Business und Pro
26. Februar — GitHub erweitert den Zugriff auf die Agenten Claude (Anthropic) und OpenAI Codex auf die Abonnements Copilot Business und Copilot Pro. Bislang auf Copilot Enterprise und Pro+ beschränkt, wird dieser Zugriff nun auf eine deutlich größere Nutzerbasis ausgeweitet.
Die drei Agenten (Claude, Codex, Copilot) laufen auf einer einheitlichen Plattform mit zentralisierter Governance, gemeinsamem Kontext und gemeinsamem Speicher. Sie sind über github.com, GitHub Mobile und VS Code zugänglich, ohne zusätzliche Abonnements.
| Funktion | Detail |
|---|---|
| Verfügbare Agenten | Claude (Anthropic), OpenAI Codex, GitHub Copilot |
| Oberflächen | github.com, GitHub Mobile, VS Code |
| Governance | Agent Control Plane (GA) — Audit-Logs, zentrale Richtlinien |
| Erforderliches Abonnement | Keine zusätzliche (in Business/Pro enthalten) |
| Sessions | Asynchron mit detaillierten Logs |
Aktivierung für Copilot Business: Ein Admin muss die Agenten auf Unternehmensebene aktivieren (Enterprise AI Controls → Agents → Partner Agents) UND auf Organisationsebene (Settings → Copilot → Coding agent → Partner Agents).
Jede Agent-Session verbraucht während der öffentlichen Previews eine “premium request”. Sessions werden im Reiter Agents eines Repositories gestartet, indem eine Issue an @claude oder @codex zugewiesen wird oder indem sie in PR-Kommentaren erwähnt werden.
🔗 Claude und Codex jetzt für Copilot Business- & Pro-Nutzer verfügbar
NVIDIA + Eli Lilly — LillyPod DGX SuperPOD
26. Februar — Eli Lilly weiht LillyPod ein, den ersten NVIDIA DGX SuperPOD, ausgestattet mit DGX B300-Systemen, gebaut in vier Monaten. Es ist die leistungsstärkste KI-Fabrik, die vollständig im Besitz und Betrieb eines Pharmaunternehmens steht.
| Metrik | Wert |
|---|---|
| GPUs | 1 016 NVIDIA Blackwell Ultra (DGX B300) |
| Leistung | >9 000 PetaFLOPS KI |
| Bauzeit | 4 Monate |
| Netzwerkverbindungen | ~5 000 |
LillyPod unterstützt das Training von Protein-Diffusionsmodellen, Graph Neural Networks für kleine Moleküle und Foundation-Modelle in der Genomik. Die Architektur basiert auf einem NVIDIA DGX SuperPOD mit Spectrum-X Ethernet Networking und NVIDIA Mission Control für die Orchestrierung.
Codex CLI v0.106.0
26. Februar — OpenAI veröffentlicht Codex CLI v0.106.0, ein stabiles Release mit mehreren bemerkenswerten Ergänzungen.
| Funktion | Detail |
|---|---|
| Direkt-Installationsskript | Neues Skript für macOS und Linux, verteilt als Asset im GitHub Release |
| App-server v2 Realtime API | Thread-scoped Realtime-Endpunkte und thread/unsubscribe-Flow |
| js_repl befördert zu /experimental | Node-Kompatibilitätsprüfungen (Minimum 22.22.0) beim Start |
| request_user_input im Default-Modus | Nicht mehr nur im Plan-Modus verfügbar |
| gpt-5.3-codex in der CLI sichtbar | Modell jetzt in der Liste für API-Nutzer sichtbar |
| Diff-basierter Speicher | Vergessen basierend auf Diffs und Auswahl nach Nutzung |
Unter den Bugfixes: ein Sicherheitsfix im zsh-fork-Ausführungspfad, der Sandbox-Wrapper umgehen konnte, und eine Begrenzung auf 1 Million Zeichen für TUI/App-Server-Inputs, um Abstürze bei massivem Einfügen zu vermeiden.
Claude Code v2.1.59 + v2.1.61
26. Februar — Claude Code veröffentlicht die Versionen v2.1.59 und v2.1.61 mit bemerkenswerten Features.
v2.1.59 — Neue Funktionen:
| Funktion | Beschreibung |
|---|---|
| Auto-memory | Claude speichert automatisch nützlichen Kontext im persistenten Speicher. Konfigurierbar über /memory |
Befehl /copy | Interaktiver Picker, wenn Codeblöcke vorhanden sind — erlaubt Auswahl einzelner Blöcke oder der kompletten Antwort |
| Vorschläge “always allow” | Bessere Vorschläge für zusammengesetzte Bash-Befehle (z. B. cd /tmp && git fetch && git push) |
| Reihenfolge kurzer Tasks | Verbesserte Scheduling in Multi-Agent-Sessions |
| Fix MCP OAuth | Behebung einer Race-Condition beim gleichzeitigen Start mehrerer Claude Code-Instanzen |
v2.1.61: Fix für konkurrierende Schreibvorgänge, die die Konfigurationsdatei unter Windows korruptieren konnten.
Neuigkeiten von Anthropic: Open Source und Connectors
26. Februar — Anthropic kündigt zwei ergänzende Öffnungen an:
Claude for Open Source — Hauptmaintainer und Hauptcontributoren populärer Open-Source-Projekte erhalten 6 Monate kostenlosen Zugang zum Plan Claude Max 20x. Boris Cherny (@bcherny), Verantwortlicher für Claude Code, betont, dass “vieles von dem, was Claude Code hervorragend macht, aus dem Feedback der OSS-Entwickler kommt.”
Connectors im kostenlosen Plan — Die Claude-Connectors sind nun für Nutzer des kostenlosen Plans zugänglich. Der Katalog umfasst über 150 Connectors in den Kategorien Coding, Data, Design, Finance, Sales und weiteren.
🔗 Tweet Lydia Hallie — Claude for Open Source 🔗 claude.com/connectors
GitHub Enterprise: IA-Governance in GA
26. Februar — GitHub kündigt die allgemeine Verfügbarkeit (GA) der Enterprise AI Controls und des Agent Control Plane an, der Governance-Suite für Administratoren von GitHub Enterprise.
Zu den GA-Funktionen gehören: Suche und Filterung der Aktivität von Agenten-Sessions (einschließlich Drittanbieter-Agenten), Aufhebung des Limits von 1.000 Einträgen für Sessions der letzten 24 Stunden und eine API, um benutzerdefinierte Agent-Definitionen unternehmensweit durchzusetzen.
In öffentlicher Previews bleibt die Verwaltung von MCP-Allowlists auf Unternehmensebene.
🔗 Enterprise AI Controls & agent control plane now generally available
GitHub Mobile: Modellwähler für Copilot
26. Februar — GitHub Mobile führt einen Modellwähler für Copilot-Agenten-Sessions ein. Nutzer können nun beim Start einer Session zwischen Auto, Claude (Anthropic), OpenAI Codex und anderen Modellen wählen.
Codex + Figma: Workflow Code→Design→Code
26. Februar — OpenAI Developers kündigen eine Integration zwischen Codex und Figma an, die einen bidirektionalen Workflow Code→Design→Code ermöglicht. Die Funktion erlaubt das Generieren von Design-Dateien direkt aus Code, Zusammenarbeit in Figma und anschließende Implementierung der Updates in Codex, ohne den Arbeitsfluss zu unterbrechen.
pplx-embed: SOTA-Embeddings von Perplexity
26. Februar — Perplexity veröffentlicht zwei Familien von Text-Embedding-Modellen: pplx-embed-v1 und pplx-embed-context-v1, erhältlich in den Größen 0,6B und 4B Parametern. Die Modelle sind über die Perplexity-API und auf Hugging Face unter MIT-Lizenz verfügbar.
| Benchmark | Score | Referenz |
|---|---|---|
| ConTEB (contextual retrieval) | 81,96% | Neuer SOTA (vs voyage-context-3 79,45%) |
| MTEB Multilingual v2 (4B INT8) | 69,66% nDCG@10 | vs Gemini-embedding-001 67,71% |
| PPLXQuery2Query Recall@10 | 73,5% | vs Qwen3-Embedding-4B 67,9% (+5,6 Punkte) |
Die Modelle unterstützen INT8-Quantisierung (4x weniger Speicher als FP32) und BINARY (32x weniger). Kein Instruction-Prefix erforderlich.
Gemini CLI v0.30.0 und Qwen 3.5 FP8
25. Februar — Gemini CLI veröffentlicht Version v0.30.0 mit drei Hauptänderungen: Einführung eines initialen SDK (@google/gemini-cli-sdk), ein neuer Policy Engine ersetzt --allowed-tools durch ein System granularer Richtlinien, und UI-Verbesserungen (Solarized-Themen, verbessertes Vim-Support, Suspend mit Ctrl-Z).
25. Februar — Alibaba veröffentlicht die quantisierten FP8-Gewichte der Qwen 3.5-Serie (35B-A3B, 122B-A10B, 27B), verfügbar auf Hugging Face und ModelScope mit nativer vLLM- und SGLang-Unterstützung ab Tag 0. Die FP8-Quantisierung reduziert den Speicherbedarf deutlich bei weitgehendem Erhalt der Performance.
Kurz
-
Responses API Feld
phase(24. Feb) — OpenAI fügt das Feldphasezur Responses API hinzu, mit dem Assistant-Nachrichten alscommentaryoderfinal_answergekennzeichnet werden können, um Zwischenlogik vom finalen Antworttext zu unterscheiden. 🔗 Changelog OpenAI API -
GPT-5.3-Codex GA in Copilot Chat (25. Feb) — Verfügbar auf github.com, GitHub Mobile, VS Code und Visual Studio für alle kostenpflichtigen Copilot-Abos. Business/Enterprise-Admins müssen die Richtlinie in den Einstellungen aktivieren. 🔗 Changelog GitHub
-
NVIDIA AI Cybersecurity OT/ICS (23. Feb) — Partnerschaften mit Akamai, Forescout, Palo Alto Networks, Siemens und Xage Security zum Einsatz von KI in der Cybersicherheit für Operational Technology und Industrial Control Systems. 🔗 NVIDIA-Blog
Was das bedeutet
Dario Amodeis Erklärung zum Department of War ist in der KI-Branche beispiellos. Zum ersten Mal dokumentiert ein CEO eines frontier-Labs öffentlich den Regierungsdruck, ethische Schutzmaßnahmen aufzuheben — und lehnt dies ausdrücklich ab. Das Label “Lieferkettenrisiko”, das der DoW erwähnt, wird üblicherweise chinesischen Firmen zugewiesen — seine mögliche Anwendung auf ein US-Unternehmen wäre eine beispiellose Eskalation.
Auf der kommerziellen Ebene zeigt der 26. Februar die Konsolidierung um einige wenige dominante Plattformen. GitHub vereinheitlicht Claude, Codex und Copilot auf einer Oberfläche mit zentraler Governance — das Modell eines “Agent-Marktplatzes” nimmt konkrete Form an. Die Perplexity-Integration bei Samsung folgt derselben Logik: weniger neue Geräte zu erobern, mehr tiefe Integrationen in bestehende Plattformen.
LillyPod bei Eli Lilly signalisiert, dass KI in der Pharmaindustrie industriell skaliert wird: Eine eigene KI-Fabrik in 4 Monaten mit 1 016 Blackwell Ultra GPUs zu bauen, zeigt, dass große Unternehmen für besonders sensible Workloads nicht mehr ausschließlich auf Cloudanbieter angewiesen sind.
Quellen - Stellungnahme Dario Amodei — Kriegsministerium
- Tweet @lydiahallie — Claude für Open Source
- Tweet @claudeai — Kostenloser Connectors-Plan
- Änderungsprotokoll Claude Code
- Claude und Codex GA — Copilot Business & Pro
- Enterprise AI Controls — GA
- GitHub Mobile Modellauswahl
- Perplexity + Samsung Galaxy S26
- pplx-embed Forschungsartikel
- Codex CLI v0.106.0 Veröffentlichung
- Tweet @OpenAIDevs — Codex + Figma
- NVIDIA LillyPod-Blog
- NVIDIA KI-Cybersicherheit für OT
- Gemini CLI Änderungsprotokoll
- Tweet @Alibaba_Qwen — Qwen3.5 FP8
- OpenAI Responses API Änderungsprotokoll
- GPT-5.3-Codex GA — GitHub
Dieses Dokument wurde aus der fr-Version in die Sprache en unter Verwendung des Modells gpt-5-mini übersetzt. Für weitere Informationen zum Übersetzungsprozess siehe https://gitlab.com/jls42/ai-powered-markdown-translator