Suchen

Anthropic gegenüber dem Department of War, Perplexity im Galaxy S26 integriert, Claude und Codex GA bei Copilot

Anthropic gegenüber dem Department of War, Perplexity im Galaxy S26 integriert, Claude und Codex GA bei Copilot

Der 26. Februar 2026 ist ein dicht gepackter Tag: Dario Amodei legt öffentlich die zwei roten Linien dar, die Anthropic gegenüber dem US Department of War (DoW) nicht überschreiten wird, Perplexity erhält OS-Level-Zugriff auf 800 Millionen Samsung-Geräte, GitHub erweitert Claude und Codex auf Copilot Business und Pro, und Eli Lilly weiht LillyPod ein — die bislang leistungsstärkste KI-Fabrik in der Pharmaindustrie.


Anthropic gegenüber dem Department of War

26. Februar — Dario Amodei, CEO von Anthropic, veröffentlicht eine öffentliche Stellungnahme zu den laufenden Gesprächen mit dem Department of War (DoW) der USA. Der Text legt zwei rote Linien dar, die Anthropic nicht überschreiten wird, selbst nicht unter Druck seitens der Regierung.

Anthropic ist der erste Anbieter von frontier-Modellen, der seine Modelle in die klassifizierten Netze der US-Regierung, in nationale Labore und für Kunden der nationalen Sicherheit ausgerollt hat. Claude wird für Geheimdienstanalyse, Modellierung, Einsatzplanung und Cyber-Operationen eingesetzt.

Die beiden abgelehnten Anwendungsfälle:

AnwendungsfallPosition von Anthropic
Massenhafte inländische ÜberwachungUnvereinbar mit demokratischen Werten. KI ermöglicht es, verstreute Daten zu vollständigen Porträts jeder Person in großem Maßstab zusammenzuführen.
Vollständig autonome WaffenDie aktuellen Modelle sind nicht zuverlässig genug. Keine menschliche Aufsicht = inakzeptable Risiken für Soldaten und Zivilisten.

Der DoW soll gefordert haben, dass Anthropic “jede legale Verwendung” akzeptiert und diese Schutzmaßnahmen entfernt. Bei Weigerung drohte der DoW damit, Anthropic als “Lieferkettenrisiko” zu kennzeichnen — ein Label, das noch nie für ein US-Unternehmen angewendet wurde und üblicherweise Gegnern vorbehalten ist. Amodei bemerkt die Ironie: Eine Drohung stuft sie als Sicherheitsrisiko ein, die andere betrachtet sie als wesentlich für die nationale Sicherheit.

Anthropic gibt an, für einen reibungslosen Übergang zur Verfügung zu stehen, falls der DoW einen anderen Anbieter wählt.

🔗 Erklärung von Dario Amodei zu unseren Gesprächen mit dem Department of War


Perplexity im Samsung Galaxy S26 integriert

26. Februar — Perplexity kündigt seine Integration in das Samsung Galaxy S26 als System-KI an, mit dem Wake-Word “Hey Plex”. Zum ersten Mal gewährt Samsung einem Drittanbieter, der weder Google noch Samsung ist, OS-Level-Zugriff.

Was die Integration ermöglicht:

FunktionDetail
Wake-Word”Hey Plex” + Seitentaste (Langes Drücken)
Nativer ZugriffNotes, Calendar, Gallery, Clock, Reminders
BixbyVerwendet die Perplexity-APIs für Echtzeit-Suche und -Schlussfolgerungen
Samsung InternetIntegration der Perplexity-APIs mit Agent-Browser-Fähigkeiten
SuchmaschineAls Standardoption im Samsung Browser verfügbar

Samsung hat das S26 um ein Multi-Agent-Modell herum konzipiert. Interne Daten zeigen, dass 8 von 10 Nutzern bereits mehr als zwei KI-Agenten pro Tag verwenden. Perplexity ist vorinstalliert auf allen S26, ohne Download oder Einrichtung. Mit 800 Millionen aktiven Samsung-Geräten im Jahr 2026 bedeutet die Vereinbarung einen massiven Hardware-Zugriff für Perplexity.

🔗 Perplexity-Blog — Samsung-Partnerschaft


Claude und Codex GA für Copilot Business und Pro

26. Februar — GitHub erweitert den Zugriff auf die Agenten Claude (Anthropic) und OpenAI Codex auf die Abonnements Copilot Business und Copilot Pro. Bislang auf Copilot Enterprise und Pro+ beschränkt, wird dieser Zugriff nun auf eine deutlich größere Nutzerbasis ausgeweitet.

Die drei Agenten (Claude, Codex, Copilot) laufen auf einer einheitlichen Plattform mit zentralisierter Governance, gemeinsamem Kontext und gemeinsamem Speicher. Sie sind über github.com, GitHub Mobile und VS Code zugänglich, ohne zusätzliche Abonnements.

FunktionDetail
Verfügbare AgentenClaude (Anthropic), OpenAI Codex, GitHub Copilot
Oberflächengithub.com, GitHub Mobile, VS Code
GovernanceAgent Control Plane (GA) — Audit-Logs, zentrale Richtlinien
Erforderliches AbonnementKeine zusätzliche (in Business/Pro enthalten)
SessionsAsynchron mit detaillierten Logs

Aktivierung für Copilot Business: Ein Admin muss die Agenten auf Unternehmensebene aktivieren (Enterprise AI Controls → Agents → Partner Agents) UND auf Organisationsebene (Settings → Copilot → Coding agent → Partner Agents).

Jede Agent-Session verbraucht während der öffentlichen Previews eine “premium request”. Sessions werden im Reiter Agents eines Repositories gestartet, indem eine Issue an @claude oder @codex zugewiesen wird oder indem sie in PR-Kommentaren erwähnt werden.

🔗 Claude und Codex jetzt für Copilot Business- & Pro-Nutzer verfügbar


NVIDIA + Eli Lilly — LillyPod DGX SuperPOD

26. Februar — Eli Lilly weiht LillyPod ein, den ersten NVIDIA DGX SuperPOD, ausgestattet mit DGX B300-Systemen, gebaut in vier Monaten. Es ist die leistungsstärkste KI-Fabrik, die vollständig im Besitz und Betrieb eines Pharmaunternehmens steht.

MetrikWert
GPUs1 016 NVIDIA Blackwell Ultra (DGX B300)
Leistung>9 000 PetaFLOPS KI
Bauzeit4 Monate
Netzwerkverbindungen~5 000

LillyPod unterstützt das Training von Protein-Diffusionsmodellen, Graph Neural Networks für kleine Moleküle und Foundation-Modelle in der Genomik. Die Architektur basiert auf einem NVIDIA DGX SuperPOD mit Spectrum-X Ethernet Networking und NVIDIA Mission Control für die Orchestrierung.

🔗 NVIDIA-Blog — LillyPod


Codex CLI v0.106.0

26. Februar — OpenAI veröffentlicht Codex CLI v0.106.0, ein stabiles Release mit mehreren bemerkenswerten Ergänzungen.

FunktionDetail
Direkt-InstallationsskriptNeues Skript für macOS und Linux, verteilt als Asset im GitHub Release
App-server v2 Realtime APIThread-scoped Realtime-Endpunkte und thread/unsubscribe-Flow
js_repl befördert zu /experimentalNode-Kompatibilitätsprüfungen (Minimum 22.22.0) beim Start
request_user_input im Default-ModusNicht mehr nur im Plan-Modus verfügbar
gpt-5.3-codex in der CLI sichtbarModell jetzt in der Liste für API-Nutzer sichtbar
Diff-basierter SpeicherVergessen basierend auf Diffs und Auswahl nach Nutzung

Unter den Bugfixes: ein Sicherheitsfix im zsh-fork-Ausführungspfad, der Sandbox-Wrapper umgehen konnte, und eine Begrenzung auf 1 Million Zeichen für TUI/App-Server-Inputs, um Abstürze bei massivem Einfügen zu vermeiden.

🔗 Release v0.106.0


Claude Code v2.1.59 + v2.1.61

26. Februar — Claude Code veröffentlicht die Versionen v2.1.59 und v2.1.61 mit bemerkenswerten Features.

v2.1.59 — Neue Funktionen:

FunktionBeschreibung
Auto-memoryClaude speichert automatisch nützlichen Kontext im persistenten Speicher. Konfigurierbar über /memory
Befehl /copyInteraktiver Picker, wenn Codeblöcke vorhanden sind — erlaubt Auswahl einzelner Blöcke oder der kompletten Antwort
Vorschläge “always allow”Bessere Vorschläge für zusammengesetzte Bash-Befehle (z. B. cd /tmp && git fetch && git push)
Reihenfolge kurzer TasksVerbesserte Scheduling in Multi-Agent-Sessions
Fix MCP OAuthBehebung einer Race-Condition beim gleichzeitigen Start mehrerer Claude Code-Instanzen

v2.1.61: Fix für konkurrierende Schreibvorgänge, die die Konfigurationsdatei unter Windows korruptieren konnten.

🔗 CHANGELOG Claude Code


Neuigkeiten von Anthropic: Open Source und Connectors

26. Februar — Anthropic kündigt zwei ergänzende Öffnungen an:

Claude for Open Source — Hauptmaintainer und Hauptcontributoren populärer Open-Source-Projekte erhalten 6 Monate kostenlosen Zugang zum Plan Claude Max 20x. Boris Cherny (@bcherny), Verantwortlicher für Claude Code, betont, dass “vieles von dem, was Claude Code hervorragend macht, aus dem Feedback der OSS-Entwickler kommt.”

Connectors im kostenlosen Plan — Die Claude-Connectors sind nun für Nutzer des kostenlosen Plans zugänglich. Der Katalog umfasst über 150 Connectors in den Kategorien Coding, Data, Design, Finance, Sales und weiteren.

🔗 Tweet Lydia Hallie — Claude for Open Source 🔗 claude.com/connectors


GitHub Enterprise: IA-Governance in GA

26. Februar — GitHub kündigt die allgemeine Verfügbarkeit (GA) der Enterprise AI Controls und des Agent Control Plane an, der Governance-Suite für Administratoren von GitHub Enterprise.

Zu den GA-Funktionen gehören: Suche und Filterung der Aktivität von Agenten-Sessions (einschließlich Drittanbieter-Agenten), Aufhebung des Limits von 1.000 Einträgen für Sessions der letzten 24 Stunden und eine API, um benutzerdefinierte Agent-Definitionen unternehmensweit durchzusetzen.

In öffentlicher Previews bleibt die Verwaltung von MCP-Allowlists auf Unternehmensebene.

🔗 Enterprise AI Controls & agent control plane now generally available


GitHub Mobile: Modellwähler für Copilot

26. Februar — GitHub Mobile führt einen Modellwähler für Copilot-Agenten-Sessions ein. Nutzer können nun beim Start einer Session zwischen Auto, Claude (Anthropic), OpenAI Codex und anderen Modellen wählen.

🔗 Tweet @github


Codex + Figma: Workflow Code→Design→Code

26. Februar — OpenAI Developers kündigen eine Integration zwischen Codex und Figma an, die einen bidirektionalen Workflow Code→Design→Code ermöglicht. Die Funktion erlaubt das Generieren von Design-Dateien direkt aus Code, Zusammenarbeit in Figma und anschließende Implementierung der Updates in Codex, ohne den Arbeitsfluss zu unterbrechen.

🔗 Tweet @OpenAIDevs


pplx-embed: SOTA-Embeddings von Perplexity

26. Februar — Perplexity veröffentlicht zwei Familien von Text-Embedding-Modellen: pplx-embed-v1 und pplx-embed-context-v1, erhältlich in den Größen 0,6B und 4B Parametern. Die Modelle sind über die Perplexity-API und auf Hugging Face unter MIT-Lizenz verfügbar.

BenchmarkScoreReferenz
ConTEB (contextual retrieval)81,96%Neuer SOTA (vs voyage-context-3 79,45%)
MTEB Multilingual v2 (4B INT8)69,66% nDCG@10vs Gemini-embedding-001 67,71%
PPLXQuery2Query Recall@1073,5%vs Qwen3-Embedding-4B 67,9% (+5,6 Punkte)

Die Modelle unterstützen INT8-Quantisierung (4x weniger Speicher als FP32) und BINARY (32x weniger). Kein Instruction-Prefix erforderlich.

🔗 Perplexity Research Article


Gemini CLI v0.30.0 und Qwen 3.5 FP8

25. Februar — Gemini CLI veröffentlicht Version v0.30.0 mit drei Hauptänderungen: Einführung eines initialen SDK (@google/gemini-cli-sdk), ein neuer Policy Engine ersetzt --allowed-tools durch ein System granularer Richtlinien, und UI-Verbesserungen (Solarized-Themen, verbessertes Vim-Support, Suspend mit Ctrl-Z).

🔗 Gemini CLI Changelog

25. Februar — Alibaba veröffentlicht die quantisierten FP8-Gewichte der Qwen 3.5-Serie (35B-A3B, 122B-A10B, 27B), verfügbar auf Hugging Face und ModelScope mit nativer vLLM- und SGLang-Unterstützung ab Tag 0. Die FP8-Quantisierung reduziert den Speicherbedarf deutlich bei weitgehendem Erhalt der Performance.

🔗 Tweet @Alibaba_Qwen


Kurz

  • Responses API Feld phase (24. Feb) — OpenAI fügt das Feld phase zur Responses API hinzu, mit dem Assistant-Nachrichten als commentary oder final_answer gekennzeichnet werden können, um Zwischenlogik vom finalen Antworttext zu unterscheiden. 🔗 Changelog OpenAI API

  • GPT-5.3-Codex GA in Copilot Chat (25. Feb) — Verfügbar auf github.com, GitHub Mobile, VS Code und Visual Studio für alle kostenpflichtigen Copilot-Abos. Business/Enterprise-Admins müssen die Richtlinie in den Einstellungen aktivieren. 🔗 Changelog GitHub

  • NVIDIA AI Cybersecurity OT/ICS (23. Feb) — Partnerschaften mit Akamai, Forescout, Palo Alto Networks, Siemens und Xage Security zum Einsatz von KI in der Cybersicherheit für Operational Technology und Industrial Control Systems. 🔗 NVIDIA-Blog


Was das bedeutet

Dario Amodeis Erklärung zum Department of War ist in der KI-Branche beispiellos. Zum ersten Mal dokumentiert ein CEO eines frontier-Labs öffentlich den Regierungsdruck, ethische Schutzmaßnahmen aufzuheben — und lehnt dies ausdrücklich ab. Das Label “Lieferkettenrisiko”, das der DoW erwähnt, wird üblicherweise chinesischen Firmen zugewiesen — seine mögliche Anwendung auf ein US-Unternehmen wäre eine beispiellose Eskalation.

Auf der kommerziellen Ebene zeigt der 26. Februar die Konsolidierung um einige wenige dominante Plattformen. GitHub vereinheitlicht Claude, Codex und Copilot auf einer Oberfläche mit zentraler Governance — das Modell eines “Agent-Marktplatzes” nimmt konkrete Form an. Die Perplexity-Integration bei Samsung folgt derselben Logik: weniger neue Geräte zu erobern, mehr tiefe Integrationen in bestehende Plattformen.

LillyPod bei Eli Lilly signalisiert, dass KI in der Pharmaindustrie industriell skaliert wird: Eine eigene KI-Fabrik in 4 Monaten mit 1 016 Blackwell Ultra GPUs zu bauen, zeigt, dass große Unternehmen für besonders sensible Workloads nicht mehr ausschließlich auf Cloudanbieter angewiesen sind.


Quellen - Stellungnahme Dario Amodei — Kriegsministerium

Dieses Dokument wurde aus der fr-Version in die Sprache en unter Verwendung des Modells gpt-5-mini übersetzt. Für weitere Informationen zum Übersetzungsprozess siehe https://gitlab.com/jls42/ai-powered-markdown-translator