Suchen

Claude Code v2.1.63, OpenAI unterzeichnet mit dem Pentagon, Anthropic bleibt gegenüber dem DoW standhaft

Claude Code v2.1.63, OpenAI unterzeichnet mit dem Pentagon, Anthropic bleibt gegenüber dem DoW standhaft

Ende Februar 2026 steht im Zeichen wachsender Spannungen zwischen den großen KI-Labs und dem US Department of War (DoW): OpenAI unterzeichnet ein klassifiziertes Abkommen mit dem Pentagon mit drei roten Linien, während Anthropic dieselben Zugeständnisse ablehnt und mit rechtlichen Schritten droht. Auf der technischen Seite ist Claude Code v2.1.63 das umfassendste Update seit mehreren Wochen, und Memory Claude steht nun endlich auch kostenlosen Nutzerinnen und Nutzern offen.


Claude Code v2.1.63 : /simplify, HTTP hooks und Welle von Memory-Fixes

28. Februar 2026 — Version 2.1.63 von Claude Code ist die umfangreichste seit mehreren Wochen. Sie kombiniert neue Entwicklerfunktionen mit einer größeren Welle von Korrekturen gegen Speicherlecks — insgesamt acht Fixes.

Neue Funktionen

FunktionBeschreibung
/simplify et /batchZwei neue Slash-Commands, gebündelt in der Standardinstallation
HTTP hooksHooks können jetzt JSON an eine externe URL senden (POST) und JSON zurückerhalten, statt nur einen Shell-Befehl auszuführen
Project configs & auto memoryZwischen allen git worktrees desselben Repositories geteilt
ENABLE_CLAUDEAI_MCP_SERVERS=falseNeue Umgebungsvariable zum Deaktivieren der MCP-Server von claude.ai
/model verbessertZeigt jetzt das aktive Modell im Menü der Slash-Commands an
/copy “Always copy full response”Option, die vollständige Antwort direkt zu kopieren, ohne den Picker zu verwenden
VSCode — SitzungsverwaltungAktionen rename und remove in der Sitzungsübersicht verfügbar
MCP OAuth — URL-Paste-FallbackFalls der localhost-Redirect fehlschlägt, kann die Callback-URL manuell eingefügt werden

Die Ergänzung der HTTP hooks ist besonders bemerkenswert: Sie ermöglicht die Integration von Claude Code in externe Automatisierungs-Workflows (CI, Webhooks, Benachrichtigungssysteme), ohne Zwischen-Shell-Skripte.

Korrekturen von Speicherlecks (8 Fixes)

Eine Welle von acht Fixes zielt auf Speicheransammlungen in langen Sessions ab:

  • Bridge polling loop, MCP OAuth flow, Menü für Hook-Konfiguration, Cache für Bash-Command-Prefix
  • MCP tool/resource cache, Erkennung der IDE-Host-IP, WebSocket-Listener, Erkennung des Git-Roots
  • Nachrichten von Teammitgliedern freigegeben nach Konversationskompaktierung
  • MCP-Server-Fetch-Caches bei Trennung bereinigt
  • Subagents: Progress-Payloads während der Kompaktierung reduziert

Für Teams, die Claude Code als Multi-Agent-Orchestrator oder in langen Sessions nutzen, sollten diese Fixes den langfristigen Speicherverbrauch deutlich senken.

Weitere Korrekturen

  • VSCode: entfernte Remote-Sessions tauchten nicht im Konversationsverlauf auf — behoben
  • Race Condition im REPL-Bridge (eingehende Nachrichten vermischten sich mit dem Verlauf)
  • /clear : veraltete versteckte Skills, die in neuen Konversationen persistierten

🔗 CHANGELOG von Claude Code


OpenAI × Anthropic gegenüber dem Department of War — Zwei Ansätze, dieselbe Ablehnung

OpenAI unterzeichnet ein klassifiziertes Abkommen mit dem Pentagon

28. Februar 2026 — OpenAI hat ein Abkommen mit dem Department of War (früher Defense) geschlossen, um KI-Systeme in klassifizierten Umgebungen einzusetzen. Das Unternehmen betont, dass dieses Abkommen mehr Schutzmaßnahmen vorsieht als frühere klassifizierte KI-Einsätze.

OpenAI definiert drei nicht verhandelbare rote Linien:

Rote LinieBeschreibung
Keine MassenüberwachungVerbot, auf groß angelegte Weise US-Bürger zu überwachen
Keine autonomen WaffenClaude darf Waffen nicht ohne menschliche Aufsicht steuern
Keine automatisierten Entscheidungen mit hohem EinsatzMenschliche Aufsicht bei allen kritischen Entscheidungen verpflichtend

Die Deployment-Architektur ist ausschließlich cloudbasiert (kein Edge/On-Premise) und die OpenAI-Sicherheitsstack bleibt intakt. Geheimhaltungsberechtigte OpenAI-Ingenieurinnen und -Ingenieure werden vor Ort sein. Es wird kein „ungefährdetes“ Modell bereitgestellt.

Der Vertrag stellt ausdrücklich klar, dass das KI-System keine autonomen Waffen in Fällen steuern darf, in denen Gesetz, Vorschriften oder DoW-Richtlinien menschliche Kontrolle verlangen — in Übereinstimmung mit der DoD Directive 3000.09 (25. Januar 2023).

Stellungnahme zu Anthropic : OpenAI erklärt ausdrücklich, dass Anthropic nicht als „Supply Chain Risk“ eingestuft werden sollte, und hat diese Position der Regierung mitgeteilt. Das Unternehmen hat gefordert, dass dieselben Vertragsbedingungen allen KI-Labs angeboten werden.

🔗 Our agreement with the Department of War

Anthropic lehnt dieselben Zugeständnisse ab und droht mit rechtlichen Schritten

27. Februar 2026 — Verteidigungsminister Pete Hegseth kündigte auf X an, Anthropic als Risiko in der Lieferkette einstufen zu wollen (supply chain risk). Anthropic antwortete am selben Tag mit einer offiziellen Stellungnahme, separat von der Stellungnahme von Dario Amodei vom Vortag.

Die Stellungnahme erklärt die Gründe für die Sackgasse: Anthropic hatte zwei Ausnahmen für die Nutzung von Claude durch das Department of War beantragt — inländische Massenüberwachung amerikanischer Bürger und vollständig autonome Waffen. Diese beiden Ausnahmen wurden nicht gewährt.

“No amount of intimidation or punishment from the Department of War will change our position on mass domestic surveillance or fully autonomous weapons. We will challenge any supply chain risk designation in court.”

🇩🇪 Keine Einschüchterung oder Bestrafung durch das Department of War wird unsere Haltung zur inländischen Massenüberwachung oder zu vollständig autonomen Waffen verändern. Wir werden jede Einstufung als Risiko in der Lieferkette vor Gericht anfechten.@AnthropicAI auf X

Anthropic präzisiert die tatsächlichen Auswirkungen für seine Kundschaft:

SegmentAuswirkung
Einzelanwender und APIZugriff auf Claude bleibt völlig unverändert
DoW-AuftragnehmerNur die Nutzung im Rahmen von DoW-Verträgen wäre betroffen — andere Verwendungen nicht

🔗 Stellungnahme von Anthropic (anthropic.com)


Memory Claude kostenlos + Import von anderen KI-Anbietern

2. März 2026 — Claude kündigt an, dass die Memory-Funktion nun für alle Nutzer verfügbar ist, einschließlich des Gratis-Tarifs.

“Memory is now available on the free plan. We’ve also made it easier to import saved memories into Claude. You can export them whenever you want.”

🇩🇪 Die Memory-Funktion ist jetzt im kostenlosen Tarif verfügbar. Wir haben außerdem das Importieren von in Claude gespeicherten Erinnerungen vereinfacht. Sie können diese exportieren, wann immer Sie möchten.@claudeai auf X

Die neue Import-Funktion ermöglicht es, den gespeicherten Kontext von anderen Assistants in Claude zu übertragen — ChatGPT, Gemini oder andere. Die Oberfläche bietet einen Button „Start import“ mit dem Hinweis „Bring relevant context and data from another AI provider to Claude.“

Zum Start: Settings → Memory.

🔗 Tweet @claudeai


Qwen 3.5 Small Series — vier kompakte Open-Weight-Modelle

2. März 2026 — Alibaba/Qwen ergänzt seine Qwen3.5-Reihe um vier kompakte Open-Weight-Modelle: Qwen3.5-0.8B, Qwen3.5-2B, Qwen3.5-4B und Qwen3.5-9B.

Diese Modelle teilen die gleiche Architektur wie die großen Qwen3.5-Modelle — native Multimodalität, Training mittels Reinforcement Learning im großen Maßstab — und sind in Formaten für unterschiedliche Einsatzfälle verfügbar:

ModellZielanwendung
Qwen3.5-0.8BEdge-Devices, ultra-niedrige Latenz
Qwen3.5-2BEingebettete Deployments, leicht und schnell
Qwen3.5-4BMultimodale Basis für leichte Agents
Qwen3.5-9BKompakt, aber konkurrenzfähig gegenüber deutlich größeren Modellen

Die Base-Modelle werden ebenfalls veröffentlicht, um Fine-Tuning durch die Forschungsgemeinschaft zu ermöglichen. Die Ankündigung erreichte am ersten Tag 1,6 Millionen Views auf X.

🔗 Qwen 3.5 Small Series auf Hugging Face 🔗 Tweet @Alibaba_Qwen


Gemini CLI v0.31.0 : Agent Browser, Gemini 3.1 Pro, Policy Engine

27. Februar 2026 — Gemini CLI kommt in Version 0.31.0 mit vier größeren Neuerungen.

FunktionBeschreibung
Gemini 3.1 Pro PreviewZugriff auf das neueste Google-Modell direkt im Terminal
Experimenteller Agent BrowserInteragiert mit Webseiten ohne zusätzliche Konfiguration
Policy Engine — ProjektProjektweite Richtlinien, Wildcards für MCP, Filterung nach Tool-Annotations
Direkter Web-FetchExperimenteller Modus mit integriertem Rate Limiting

Der Agent Browser eröffnet Automatisierungs-Workflows im Web direkt aus der CLI — Scraping, Tests, Interaktionen mit nicht-API-Interfaces. Es ist eine experimentelle Funktion und daher mit Vorsicht in Produktionsumgebungen zu verwenden.

🔗 Changelog Gemini CLI


GitHub Copilot : Deprecation von Gemini 3 Pro und den GPT-5.1-Modellen

2. März 2026 — GitHub kündigte die bevorstehende Deprecation mehrerer Modelle in allen Copilot-Erlebnissen an (Chat, Inline-Edits, Ask/Agent-Modi, Code-Vervollständigungen).

ModellDeprecation-DatumVorgeschlagene Alternative
Gemini 3 Pro26. März 2026Gemini 3.1 Pro
GPT-5.11. April 2026GPT-5.3-Codex
GPT-5.1-Codex1. April 2026GPT-5.3-Codex
GPT-5.1-Codex-Mini1. April 2026GPT-5.3-Codex
GPT-5.1-Codex-Max1. April 2026GPT-5.3-Codex

Die vorgezogene Deprecation von Gemini 3 Pro zum 26. März (anstelle eines späteren Datums) begründet sich durch eine Deprecation seitens Google selbst. Copilot Enterprise-Admins sollten ihre Modell-Policies in den Copilot-Einstellungen überprüfen und die Alternativen vor den genannten Daten aktivieren.

Die Copilot-Metriken umfassen jetzt außerdem Telemetrie des Plan-Modus — verfügbar in JetBrains, Eclipse, Xcode und VS Code Insiders; der allgemeine Release für VS Code ist geplant.

🔗 GitHub Changelog — Deprecation der Modelle 🔗 Copilot-Metriken — Plan-Modus


NVIDIA Nemotron LTM 30B und Telco-Blueprints für MWC Barcelona

28. Februar 2026 — Vor dem Mobile World Congress Barcelona (2.–5. März 2026) hat NVIDIA zwei KI-bezogene Ankündigungen für den Telekom-Bereich gemacht.

Nemotron LTM 30B ist ein Open-Source-Modell mit 30 Milliarden Parametern, entwickelt mit AdaptKey AI, basierend auf NVIDIA Nemotron 3 und feinabgestimmt auf offene Telco-Daten (Industrie-Standards und synthetische Logs). Es ist das erste Mal, dass NVIDIA ein Large Telco Model als Open Source speziell für den Sektor veröffentlicht.

Zwei neue NVIDIA Blueprints begleiten die Veröffentlichung:

BlueprintPartnerNutzung
Energy saving RANVIAVI TeraVMEnergieoptimierung von Funknetzen
Network configuration multi-agentTech MahindraReasoning wie NOC-Ingenieure

Zu den frühen Anwendern gehören Cassava Technologies (Afrika), NTT DATA (Japan) und Telenor Maritime. Die Modelle werden über die GSMA Open Telco AI-Initiative veröffentlicht.

Der Bericht State of AI in Telecom 2026, veröffentlicht am 27. Februar, kommt zu dem Schluss, dass die Netzwerkautomatisierung der KI-Anwendungsfall mit dem höchsten ROI im Telecom-Sektor ist.

🔗 NVIDIA Blog — Nemotron LTM


Runway : neuer Co-CEO und vier C-Suite-Benennungen

26. Februar 2026 — Runway gab Veränderungen in der Führung bekannt. Anastasis Germanidis, Mitgründer, wird Co-CEO an der Seite von Cristóbal Valenzuela.

Vier neue C-Suite-Benennungen:

RollePerson
CTOKamil Sindi
COOMichelle Kwon
CPOAnna Chalon
CCOJamie Umpherson

Runway beschreibt diese Benennungen als Formalisierung einer bereits existierenden Struktur, im Einklang mit der Vision einer „world simulation“.

🔗 Runway-Ankündigung


Kurznachrichten

Midjourney : Moodboards und Personalisierung in Niji V7

26. Februar — Midjourney hat Moodboards und Personalisierung für das Modell Niji V7 (spezialisiert auf Anime/Illustration) hinzugefügt. Die Web-Räume werden schrittweise durch kommende Kollaborationstools ersetzt.

🔗 Tweet @midjourney

Genspark : Nano Banana 2 kostenlos + Workspace 3.0 im Anmarsch

27. Februar / 2. März — Nano Banana 2 (KI-Bildgenerator) ist jetzt im AI Image Agent von Genspark für alle Nutzer kostenlos verfügbar (für Plus- und Pro-Abonnenten unbegrenzt). Zudem kündigte CEO Eric Jing Genspark Workspace 3.0 für die Woche vom 9. März an — die dritte Hauptversion nach Workspace 1.0 (Nov. 2025) und 2.0 (Jan. 2026).

🔗 Tweet Genspark Workspace 3.0

Perplexity veranstaltet “Ask”, seine erste Entwicklerkonferenz

27. Februar — Perplexity kündigte „Ask“ an, seine erste Entwicklerkonferenz, geplant für den 11. März 2026 in San Francisco. Anmeldung über events.perplexity.ai/ask2026. Kontext: Perplexity gibt an, dass seine APIs Hunderte Millionen Samsung-Geräte erreichen und von 6 der 7 „Magnificent Seven“ genutzt werden.

🔗 Tweet @perplexity_ai

Stargate Texas : erste Stahlträger gesetzt

27. Februar — Greg Brockman (@gdb) teilte ein visuelles Update von der Baustelle Stargate in Milam County, Texas: die ersten Stahlträger wurden vor Ort gesetzt, in Partnerschaft mit SoftBank und SBEnergy.

🔗 Tweet @gdb

ChatGPT : Trusted Contact für Krisensituationen

27. Februar — OpenAI kündigte eine „Trusted Contact“-Funktion für ChatGPT an: erwachsene Nutzer können eine Kontaktperson benennen, die Benachrichtigungen erhält, falls die Person Anzeichen für Unterstützungsbedarf zeigt. Entwickelt mit dem „Council on Well-Being and AI“ und dem „Global Physicians Network“. Parallel fasste ein kalifornisches Gericht mehrere Fälle zur psychischen Gesundheit im Zusammenhang mit ChatGPT zu einem einzigen Verfahren zusammen.

🔗 Update zu mental-health-bezogenen Arbeiten von OpenAI

Google AI : Flow-Redesign, Opal, producer.ai, Gemini K-12

27. Februar — Google meldete mehrere Punkte in seinem wöchentlichen Rückblick @GoogleAI: Flow by Google (Tool zur Videoproduktion) erhielt ein großes Redesign mit dem Ziel, ein umfassendes kreatives KI-Studio zu werden. Opal (Google Labs) führt einen „agent step“ ein, um statische Workflows in interaktive Erlebnisse zu verwandeln. producer.ai ist offiziell zu Google Labs gestoßen. Das Gemini-Training ist nun für die 6 Millionen K-12- und Hochschullehrkräfte in den USA verfügbar. 🔗 Zusammenfassung @GoogleAI

@OpenAIDevs Teaser “Bald.”

2. März — @OpenAIDevs veröffentlichte einen Teaser mit einem Windows-XP-Bild und dem einzigen Wort “Bald.” — 179.000 Aufrufe. Keine weiteren Details verfügbar.

🔗 Teaser @OpenAIDevs


Was das bedeutet

Die Konfrontation zwischen OpenAI/Anthropic und dem Kriegsministerium offenbart eher eine Divergenz in der Strategie als in den Werten: Beide Labs ziehen ähnliche rote Linien (Massenüberwachung, autonome Waffen), aber OpenAI hat eine Vereinbarung mit vertraglichen Schutzmaßnahmen ausgehandelt, während Anthropic sich weigerte zu unterschreiben, ohne akzeptierte Garantien. OpenAIs öffentliche Position zugunsten von Anthropic verkompliziert das Bild — beide Labs scheinen sich in den Prinzipien abzustimmen, auch wenn ihre kommerziellen Entwicklungen auseinandergehen.

Claude Code v2.1.63 bestätigt die hohe Schlagzahl von Anthropic bei CLI-Tools: Die HTTP-Hooks erweitern konkret die möglichen Integrationen, und die Welle von Speicherkorrekturen zeugt von einem ernsthaften Stabilisierungseinsatz für langfristige Workflows. Die kostenlose Gedächtnisfunktion positioniert Claude im direkten Wettbewerb mit ChatGPT für den Massenmarkt.

Bei den Modellen verfolgt Qwen weiterhin eine Strategie der Abdeckung verschiedener Segmente: Nach den großen MoE-Modellen Mitte Februar zielt die Small-Serie 0.8B–9B auf Edge-Umgebungen und leichte Agenten — ein Segment, das von westlichen Labs mit offenen Gewichten noch wenig bedient wird.


Quellen

Dieses Dokument wurde von der fr-Version in die Sprache en unter Verwendung des Modells gpt-5-mini übersetzt. Für weitere Informationen zum Übersetzungsprozess konsultieren Sie https://gitlab.com/jls42/ai-powered-markdown-translator