Ende Februar 2026 steht im Zeichen wachsender Spannungen zwischen den großen KI-Labs und dem US Department of War (DoW): OpenAI unterzeichnet ein klassifiziertes Abkommen mit dem Pentagon mit drei roten Linien, während Anthropic dieselben Zugeständnisse ablehnt und mit rechtlichen Schritten droht. Auf der technischen Seite ist Claude Code v2.1.63 das umfassendste Update seit mehreren Wochen, und Memory Claude steht nun endlich auch kostenlosen Nutzerinnen und Nutzern offen.
Claude Code v2.1.63 : /simplify, HTTP hooks und Welle von Memory-Fixes
28. Februar 2026 — Version 2.1.63 von Claude Code ist die umfangreichste seit mehreren Wochen. Sie kombiniert neue Entwicklerfunktionen mit einer größeren Welle von Korrekturen gegen Speicherlecks — insgesamt acht Fixes.
Neue Funktionen
| Funktion | Beschreibung |
|---|---|
/simplify et /batch | Zwei neue Slash-Commands, gebündelt in der Standardinstallation |
| HTTP hooks | Hooks können jetzt JSON an eine externe URL senden (POST) und JSON zurückerhalten, statt nur einen Shell-Befehl auszuführen |
| Project configs & auto memory | Zwischen allen git worktrees desselben Repositories geteilt |
ENABLE_CLAUDEAI_MCP_SERVERS=false | Neue Umgebungsvariable zum Deaktivieren der MCP-Server von claude.ai |
/model verbessert | Zeigt jetzt das aktive Modell im Menü der Slash-Commands an |
/copy “Always copy full response” | Option, die vollständige Antwort direkt zu kopieren, ohne den Picker zu verwenden |
| VSCode — Sitzungsverwaltung | Aktionen rename und remove in der Sitzungsübersicht verfügbar |
| MCP OAuth — URL-Paste-Fallback | Falls der localhost-Redirect fehlschlägt, kann die Callback-URL manuell eingefügt werden |
Die Ergänzung der HTTP hooks ist besonders bemerkenswert: Sie ermöglicht die Integration von Claude Code in externe Automatisierungs-Workflows (CI, Webhooks, Benachrichtigungssysteme), ohne Zwischen-Shell-Skripte.
Korrekturen von Speicherlecks (8 Fixes)
Eine Welle von acht Fixes zielt auf Speicheransammlungen in langen Sessions ab:
- Bridge polling loop, MCP OAuth flow, Menü für Hook-Konfiguration, Cache für Bash-Command-Prefix
- MCP tool/resource cache, Erkennung der IDE-Host-IP, WebSocket-Listener, Erkennung des Git-Roots
- Nachrichten von Teammitgliedern freigegeben nach Konversationskompaktierung
- MCP-Server-Fetch-Caches bei Trennung bereinigt
- Subagents: Progress-Payloads während der Kompaktierung reduziert
Für Teams, die Claude Code als Multi-Agent-Orchestrator oder in langen Sessions nutzen, sollten diese Fixes den langfristigen Speicherverbrauch deutlich senken.
Weitere Korrekturen
- VSCode: entfernte Remote-Sessions tauchten nicht im Konversationsverlauf auf — behoben
- Race Condition im REPL-Bridge (eingehende Nachrichten vermischten sich mit dem Verlauf)
/clear: veraltete versteckte Skills, die in neuen Konversationen persistierten
OpenAI × Anthropic gegenüber dem Department of War — Zwei Ansätze, dieselbe Ablehnung
OpenAI unterzeichnet ein klassifiziertes Abkommen mit dem Pentagon
28. Februar 2026 — OpenAI hat ein Abkommen mit dem Department of War (früher Defense) geschlossen, um KI-Systeme in klassifizierten Umgebungen einzusetzen. Das Unternehmen betont, dass dieses Abkommen mehr Schutzmaßnahmen vorsieht als frühere klassifizierte KI-Einsätze.
OpenAI definiert drei nicht verhandelbare rote Linien:
| Rote Linie | Beschreibung |
|---|---|
| Keine Massenüberwachung | Verbot, auf groß angelegte Weise US-Bürger zu überwachen |
| Keine autonomen Waffen | Claude darf Waffen nicht ohne menschliche Aufsicht steuern |
| Keine automatisierten Entscheidungen mit hohem Einsatz | Menschliche Aufsicht bei allen kritischen Entscheidungen verpflichtend |
Die Deployment-Architektur ist ausschließlich cloudbasiert (kein Edge/On-Premise) und die OpenAI-Sicherheitsstack bleibt intakt. Geheimhaltungsberechtigte OpenAI-Ingenieurinnen und -Ingenieure werden vor Ort sein. Es wird kein „ungefährdetes“ Modell bereitgestellt.
Der Vertrag stellt ausdrücklich klar, dass das KI-System keine autonomen Waffen in Fällen steuern darf, in denen Gesetz, Vorschriften oder DoW-Richtlinien menschliche Kontrolle verlangen — in Übereinstimmung mit der DoD Directive 3000.09 (25. Januar 2023).
Stellungnahme zu Anthropic : OpenAI erklärt ausdrücklich, dass Anthropic nicht als „Supply Chain Risk“ eingestuft werden sollte, und hat diese Position der Regierung mitgeteilt. Das Unternehmen hat gefordert, dass dieselben Vertragsbedingungen allen KI-Labs angeboten werden.
🔗 Our agreement with the Department of War
Anthropic lehnt dieselben Zugeständnisse ab und droht mit rechtlichen Schritten
27. Februar 2026 — Verteidigungsminister Pete Hegseth kündigte auf X an, Anthropic als Risiko in der Lieferkette einstufen zu wollen (supply chain risk). Anthropic antwortete am selben Tag mit einer offiziellen Stellungnahme, separat von der Stellungnahme von Dario Amodei vom Vortag.
Die Stellungnahme erklärt die Gründe für die Sackgasse: Anthropic hatte zwei Ausnahmen für die Nutzung von Claude durch das Department of War beantragt — inländische Massenüberwachung amerikanischer Bürger und vollständig autonome Waffen. Diese beiden Ausnahmen wurden nicht gewährt.
“No amount of intimidation or punishment from the Department of War will change our position on mass domestic surveillance or fully autonomous weapons. We will challenge any supply chain risk designation in court.”
🇩🇪 Keine Einschüchterung oder Bestrafung durch das Department of War wird unsere Haltung zur inländischen Massenüberwachung oder zu vollständig autonomen Waffen verändern. Wir werden jede Einstufung als Risiko in der Lieferkette vor Gericht anfechten. — @AnthropicAI auf X
Anthropic präzisiert die tatsächlichen Auswirkungen für seine Kundschaft:
| Segment | Auswirkung |
|---|---|
| Einzelanwender und API | Zugriff auf Claude bleibt völlig unverändert |
| DoW-Auftragnehmer | Nur die Nutzung im Rahmen von DoW-Verträgen wäre betroffen — andere Verwendungen nicht |
🔗 Stellungnahme von Anthropic (anthropic.com)
Memory Claude kostenlos + Import von anderen KI-Anbietern
2. März 2026 — Claude kündigt an, dass die Memory-Funktion nun für alle Nutzer verfügbar ist, einschließlich des Gratis-Tarifs.
“Memory is now available on the free plan. We’ve also made it easier to import saved memories into Claude. You can export them whenever you want.”
🇩🇪 Die Memory-Funktion ist jetzt im kostenlosen Tarif verfügbar. Wir haben außerdem das Importieren von in Claude gespeicherten Erinnerungen vereinfacht. Sie können diese exportieren, wann immer Sie möchten. — @claudeai auf X
Die neue Import-Funktion ermöglicht es, den gespeicherten Kontext von anderen Assistants in Claude zu übertragen — ChatGPT, Gemini oder andere. Die Oberfläche bietet einen Button „Start import“ mit dem Hinweis „Bring relevant context and data from another AI provider to Claude.“
Zum Start: Settings → Memory.
Qwen 3.5 Small Series — vier kompakte Open-Weight-Modelle
2. März 2026 — Alibaba/Qwen ergänzt seine Qwen3.5-Reihe um vier kompakte Open-Weight-Modelle: Qwen3.5-0.8B, Qwen3.5-2B, Qwen3.5-4B und Qwen3.5-9B.
Diese Modelle teilen die gleiche Architektur wie die großen Qwen3.5-Modelle — native Multimodalität, Training mittels Reinforcement Learning im großen Maßstab — und sind in Formaten für unterschiedliche Einsatzfälle verfügbar:
| Modell | Zielanwendung |
|---|---|
| Qwen3.5-0.8B | Edge-Devices, ultra-niedrige Latenz |
| Qwen3.5-2B | Eingebettete Deployments, leicht und schnell |
| Qwen3.5-4B | Multimodale Basis für leichte Agents |
| Qwen3.5-9B | Kompakt, aber konkurrenzfähig gegenüber deutlich größeren Modellen |
Die Base-Modelle werden ebenfalls veröffentlicht, um Fine-Tuning durch die Forschungsgemeinschaft zu ermöglichen. Die Ankündigung erreichte am ersten Tag 1,6 Millionen Views auf X.
🔗 Qwen 3.5 Small Series auf Hugging Face 🔗 Tweet @Alibaba_Qwen
Gemini CLI v0.31.0 : Agent Browser, Gemini 3.1 Pro, Policy Engine
27. Februar 2026 — Gemini CLI kommt in Version 0.31.0 mit vier größeren Neuerungen.
| Funktion | Beschreibung |
|---|---|
| Gemini 3.1 Pro Preview | Zugriff auf das neueste Google-Modell direkt im Terminal |
| Experimenteller Agent Browser | Interagiert mit Webseiten ohne zusätzliche Konfiguration |
| Policy Engine — Projekt | Projektweite Richtlinien, Wildcards für MCP, Filterung nach Tool-Annotations |
| Direkter Web-Fetch | Experimenteller Modus mit integriertem Rate Limiting |
Der Agent Browser eröffnet Automatisierungs-Workflows im Web direkt aus der CLI — Scraping, Tests, Interaktionen mit nicht-API-Interfaces. Es ist eine experimentelle Funktion und daher mit Vorsicht in Produktionsumgebungen zu verwenden.
GitHub Copilot : Deprecation von Gemini 3 Pro und den GPT-5.1-Modellen
2. März 2026 — GitHub kündigte die bevorstehende Deprecation mehrerer Modelle in allen Copilot-Erlebnissen an (Chat, Inline-Edits, Ask/Agent-Modi, Code-Vervollständigungen).
| Modell | Deprecation-Datum | Vorgeschlagene Alternative |
|---|---|---|
| Gemini 3 Pro | 26. März 2026 | Gemini 3.1 Pro |
| GPT-5.1 | 1. April 2026 | GPT-5.3-Codex |
| GPT-5.1-Codex | 1. April 2026 | GPT-5.3-Codex |
| GPT-5.1-Codex-Mini | 1. April 2026 | GPT-5.3-Codex |
| GPT-5.1-Codex-Max | 1. April 2026 | GPT-5.3-Codex |
Die vorgezogene Deprecation von Gemini 3 Pro zum 26. März (anstelle eines späteren Datums) begründet sich durch eine Deprecation seitens Google selbst. Copilot Enterprise-Admins sollten ihre Modell-Policies in den Copilot-Einstellungen überprüfen und die Alternativen vor den genannten Daten aktivieren.
Die Copilot-Metriken umfassen jetzt außerdem Telemetrie des Plan-Modus — verfügbar in JetBrains, Eclipse, Xcode und VS Code Insiders; der allgemeine Release für VS Code ist geplant.
🔗 GitHub Changelog — Deprecation der Modelle 🔗 Copilot-Metriken — Plan-Modus
NVIDIA Nemotron LTM 30B und Telco-Blueprints für MWC Barcelona
28. Februar 2026 — Vor dem Mobile World Congress Barcelona (2.–5. März 2026) hat NVIDIA zwei KI-bezogene Ankündigungen für den Telekom-Bereich gemacht.
Nemotron LTM 30B ist ein Open-Source-Modell mit 30 Milliarden Parametern, entwickelt mit AdaptKey AI, basierend auf NVIDIA Nemotron 3 und feinabgestimmt auf offene Telco-Daten (Industrie-Standards und synthetische Logs). Es ist das erste Mal, dass NVIDIA ein Large Telco Model als Open Source speziell für den Sektor veröffentlicht.
Zwei neue NVIDIA Blueprints begleiten die Veröffentlichung:
| Blueprint | Partner | Nutzung |
|---|---|---|
| Energy saving RAN | VIAVI TeraVM | Energieoptimierung von Funknetzen |
| Network configuration multi-agent | Tech Mahindra | Reasoning wie NOC-Ingenieure |
Zu den frühen Anwendern gehören Cassava Technologies (Afrika), NTT DATA (Japan) und Telenor Maritime. Die Modelle werden über die GSMA Open Telco AI-Initiative veröffentlicht.
Der Bericht State of AI in Telecom 2026, veröffentlicht am 27. Februar, kommt zu dem Schluss, dass die Netzwerkautomatisierung der KI-Anwendungsfall mit dem höchsten ROI im Telecom-Sektor ist.
Runway : neuer Co-CEO und vier C-Suite-Benennungen
26. Februar 2026 — Runway gab Veränderungen in der Führung bekannt. Anastasis Germanidis, Mitgründer, wird Co-CEO an der Seite von Cristóbal Valenzuela.
Vier neue C-Suite-Benennungen:
| Rolle | Person |
|---|---|
| CTO | Kamil Sindi |
| COO | Michelle Kwon |
| CPO | Anna Chalon |
| CCO | Jamie Umpherson |
Runway beschreibt diese Benennungen als Formalisierung einer bereits existierenden Struktur, im Einklang mit der Vision einer „world simulation“.
Kurznachrichten
Midjourney : Moodboards und Personalisierung in Niji V7
26. Februar — Midjourney hat Moodboards und Personalisierung für das Modell Niji V7 (spezialisiert auf Anime/Illustration) hinzugefügt. Die Web-Räume werden schrittweise durch kommende Kollaborationstools ersetzt.
Genspark : Nano Banana 2 kostenlos + Workspace 3.0 im Anmarsch
27. Februar / 2. März — Nano Banana 2 (KI-Bildgenerator) ist jetzt im AI Image Agent von Genspark für alle Nutzer kostenlos verfügbar (für Plus- und Pro-Abonnenten unbegrenzt). Zudem kündigte CEO Eric Jing Genspark Workspace 3.0 für die Woche vom 9. März an — die dritte Hauptversion nach Workspace 1.0 (Nov. 2025) und 2.0 (Jan. 2026).
🔗 Tweet Genspark Workspace 3.0
Perplexity veranstaltet “Ask”, seine erste Entwicklerkonferenz
27. Februar — Perplexity kündigte „Ask“ an, seine erste Entwicklerkonferenz, geplant für den 11. März 2026 in San Francisco. Anmeldung über events.perplexity.ai/ask2026. Kontext: Perplexity gibt an, dass seine APIs Hunderte Millionen Samsung-Geräte erreichen und von 6 der 7 „Magnificent Seven“ genutzt werden.
Stargate Texas : erste Stahlträger gesetzt
27. Februar — Greg Brockman (@gdb) teilte ein visuelles Update von der Baustelle Stargate in Milam County, Texas: die ersten Stahlträger wurden vor Ort gesetzt, in Partnerschaft mit SoftBank und SBEnergy.
ChatGPT : Trusted Contact für Krisensituationen
27. Februar — OpenAI kündigte eine „Trusted Contact“-Funktion für ChatGPT an: erwachsene Nutzer können eine Kontaktperson benennen, die Benachrichtigungen erhält, falls die Person Anzeichen für Unterstützungsbedarf zeigt. Entwickelt mit dem „Council on Well-Being and AI“ und dem „Global Physicians Network“. Parallel fasste ein kalifornisches Gericht mehrere Fälle zur psychischen Gesundheit im Zusammenhang mit ChatGPT zu einem einzigen Verfahren zusammen.
🔗 Update zu mental-health-bezogenen Arbeiten von OpenAI
Google AI : Flow-Redesign, Opal, producer.ai, Gemini K-12
27. Februar — Google meldete mehrere Punkte in seinem wöchentlichen Rückblick @GoogleAI: Flow by Google (Tool zur Videoproduktion) erhielt ein großes Redesign mit dem Ziel, ein umfassendes kreatives KI-Studio zu werden. Opal (Google Labs) führt einen „agent step“ ein, um statische Workflows in interaktive Erlebnisse zu verwandeln. producer.ai ist offiziell zu Google Labs gestoßen. Das Gemini-Training ist nun für die 6 Millionen K-12- und Hochschullehrkräfte in den USA verfügbar. 🔗 Zusammenfassung @GoogleAI
@OpenAIDevs Teaser “Bald.”
2. März — @OpenAIDevs veröffentlichte einen Teaser mit einem Windows-XP-Bild und dem einzigen Wort “Bald.” — 179.000 Aufrufe. Keine weiteren Details verfügbar.
Was das bedeutet
Die Konfrontation zwischen OpenAI/Anthropic und dem Kriegsministerium offenbart eher eine Divergenz in der Strategie als in den Werten: Beide Labs ziehen ähnliche rote Linien (Massenüberwachung, autonome Waffen), aber OpenAI hat eine Vereinbarung mit vertraglichen Schutzmaßnahmen ausgehandelt, während Anthropic sich weigerte zu unterschreiben, ohne akzeptierte Garantien. OpenAIs öffentliche Position zugunsten von Anthropic verkompliziert das Bild — beide Labs scheinen sich in den Prinzipien abzustimmen, auch wenn ihre kommerziellen Entwicklungen auseinandergehen.
Claude Code v2.1.63 bestätigt die hohe Schlagzahl von Anthropic bei CLI-Tools: Die HTTP-Hooks erweitern konkret die möglichen Integrationen, und die Welle von Speicherkorrekturen zeugt von einem ernsthaften Stabilisierungseinsatz für langfristige Workflows. Die kostenlose Gedächtnisfunktion positioniert Claude im direkten Wettbewerb mit ChatGPT für den Massenmarkt.
Bei den Modellen verfolgt Qwen weiterhin eine Strategie der Abdeckung verschiedener Segmente: Nach den großen MoE-Modellen Mitte Februar zielt die Small-Serie 0.8B–9B auf Edge-Umgebungen und leichte Agenten — ein Segment, das von westlichen Labs mit offenen Gewichten noch wenig bedient wird.
Quellen
- Änderungsprotokoll Claude Code — GitHub
- Stellungnahme von Anthropic — Lieferkettenrisiko
- @AnthropicAI auf X
- OpenAI — Unsere Vereinbarung mit dem Kriegsministerium
- @OpenAI auf X
- Kostenlose Gedächtnisfunktion von Claude — @claudeai auf X
- Qwen 3.5 Small-Serie — @Alibaba_Qwen auf X
- Qwen 3.5 Small auf Hugging Face
- Änderungsprotokoll Gemini CLI v0.31.0
- GitHub Changelog — Abkündigung von Gemini 3 Pro und GPT-5.1
- GitHub Changelog — Copilot-Metriken: Plan-Modus
- NVIDIA Nemotron LTM 30B und Blueprints für Telekommunikation
- Runway — neue Führung
- @midjourney — Niji V7 Moodboards
- Genspark Workspace 3.0 — @genspark_ai auf X
- Perplexity Ask — @perplexity_ai auf X
- Stargate Texas — @gdb auf X
- OpenAI — Update zur psychischen Gesundheit bei ChatGPT
- @GoogleAI wöchentliche Zusammenfassung 27. Februar
- Teaser @OpenAIDevs “Bald.”
Dieses Dokument wurde von der fr-Version in die Sprache en unter Verwendung des Modells gpt-5-mini übersetzt. Für weitere Informationen zum Übersetzungsprozess konsultieren Sie https://gitlab.com/jls42/ai-powered-markdown-translator