Anthropic überarbeitet seine Sicherheitsrichtlinie grundlegend: RSP v3.0 führt eine Frontier Safety Roadmap (öffentliche Sicherheits-Roadmap) und vierteljährliche Risk Reports mit externer Begutachtung ein. OpenAI beendet die beschränkte Zugangsphase von GPT-5.3-Codex, das nun allen Entwicklern über die Responses API zur Verfügung steht. Meta schließt einen mehrjährigen Vertrag mit AMD über rund 6 GW dedizierte GPU-Kapazität für seine KI-Modelle. Qwen bringt vier MoE-Modelle, darunter ein 35B-A3B, das sein eigenes 235B-Modell übertrifft. Claude Code führt Remote Control ein, um eine Sitzung vom Mobiltelefon aus fortzusetzen.
Anthropic : Responsible Scaling Policy v3.0
24. Februar — Anthropic veröffentlicht die dritte Version seiner Responsible Scaling Policy (RSP), des freiwilligen Rahmens zur Eindoämmung katastrophaler Risiken im Zusammenhang mit seinen Modellen.
Die ursprüngliche RSP stammt aus dem September 2023. In zweieinhalb Jahren haben die Modelle neue Fähigkeiten erlangt — Web-Navigation, Codeausführung, Nutzung von Rechnern, mehrstufige autonome Aktionen — und jede neue Fähigkeit hat neue Risiken mit sich gebracht, die adressiert werden müssen.
Was funktioniert hat
Die RSP hat Anthropic dazu veranlasst, robustere Schutzmaßnahmen zu entwickeln, etwa Klassifizierer zur Blockierung von Inhalten im Zusammenhang mit Biowaffen, die für ASL-3 erforderlich sind. Der ASL-3-Standard wurde im Mai 2025 aktiviert und ist einsatzbereit. OpenAI und Google DeepMind haben in den Monaten nach der ersten Ankündigung ähnliche Frameworks übernommen. Die RSP hat zudem zur Informationsgrundlage für gesetzliche Texte beigetragen (SB 53 in Kalifornien, EU AI Act).
Was nicht funktioniert hat
Die Kapazitätsschwellen erwiesen sich in der Praxis als schwammiger als erwartet — eindeutig zu entscheiden, ob ein Modell eine Schwelle “definitiv” überschritten hat, bleibt schwierig. Regierungen haben nicht so schnell gehandelt wie erhofft, in einem politischen Umfeld, das Regulierung wenig förderlich gegenübersteht. Einige Anforderungen hoher ASL-Stufen (ASL-4, ASL-5) könnten unilateral unmöglich zu erfüllen sein.
Drei wesentliche Änderungen in RSP v3.0
Die v3.0 unterscheidet nun klar zwischen dem, wozu sich Anthropic unabhängig von anderen Akteuren verpflichtet, und einer Kartierung von Fähigkeiten→Mitigations, die die gesamte Branche übernehmen sollte.
Ein zweites, parallel veröffentlichtes Dokument — die Frontier Safety Roadmap — legt konkrete öffentliche Ziele fest: R&D-”Moonshot”-Projekte zur Sicherung von Modellgewichten, die Entwicklung eines automatisierten Red-Teaming, das Hunderte menschlicher Teilnehmender übertrifft, sowie die Einrichtung zentralisierter Register für alle kritischen Aktivitäten in der KI-Entwicklung.
Schließlich verpflichtet sich Anthropic, alle 3 bis 6 Monate Risk Reports zu veröffentlichen: Sicherheitsprofile der Modelle, Darstellung von Fähigkeiten/Gefährdungen/Mitigations und für die fortgeschrittensten Modelle eine Begutachtung durch unabhängige Expert:innen mit unzensiertem Zugang zum Bericht.
“We’re updating our Responsible Scaling Policy to its third version. Since it came into effect in 2023, we’ve learned a lot about the RSP’s benefits and its shortcomings. This update improves the policy, reinforcing what worked and committing us to even greater transparency.”
🇩🇪 Wir aktualisieren unsere Responsible Scaling Policy in ihrer dritten Version. Seit ihrem Inkrafttreten im Jahr 2023 haben wir viel über ihre Stärken und Grenzen gelernt. Dieses Update verbessert die Richtlinie, indem es das, was funktioniert hat, stärkt und uns zu noch mehr Transparenz verpflichtet. — @AnthropicAI auf X
OpenAI : GPT-5.3-Codex in allgemeiner Verfügbarkeit
24. Februar — GPT-5.3-Codex ist nun allen Entwicklern über die Responses API von OpenAI zugänglich. Das Modell war Anfang Februar in einem eingeschränkten Zugang gestartet; jetzt ist es allgemein verfügbar.
GPT-5.3-Codex vereint frontierfähige Coding-Performance und berufliches Wissen in einem einzigen Modell. Laut Rückmeldungen der ersten Integratoren sei es “signifikant leistungsfähiger und 3–4x effizienter in Tokens als GPT-5.2”. Die Plattform Lovable gehörte zu den ersten Anwendern für die komplexesten Anwendungsfälle.
Das Modell ist außerdem über OpenRouter verfügbar für Entwickler, die es in bestehende Workflows integrieren möchten, ohne direkt die OpenAI-API zu nutzen.
| Element | Detail |
|---|---|
| Verfügbarkeit | Responses API (allgemeiner Zugriff) |
| Effizienz | 3–4x token-effizienter vs GPT-5.2 |
| Alternativer Zugang | OpenRouter |
Meta + AMD : mehrjähriges Abkommen über ~6 GW GPU
24. Februar — Meta kündigt eine mehrjährige Partnerschaft mit AMD an, um die neuesten AMD Instinct GPUs in seine globale Infrastruktur zu integrieren.
Der Rollout sieht etwa 6 GW Rechenzentrums-Kapazität vor, mit dem Ziel, hochmoderne KI-Modelle zu entwickeln und eine „persönliche Superintelligenz“ für Milliarden von Nutzer:innen weltweit bereitzustellen.
“Today we’re announcing a multi-year agreement with @AMD to integrate their latest Instinct GPUs into our global infrastructure. With approximately 6GW of planned data center capacity dedicated to this deployment, we’re scaling our compute capacity to accelerate the development of cutting-edge AI models and deliver personal superintelligence to billions around the world.”
🇩🇪 Heute geben wir ein mehrjähriges Abkommen mit @AMD bekannt, um ihre neuesten Instinct GPUs in unsere globale Infrastruktur zu integrieren. Mit rund 6 GW geplanter Rechenzentrums-Kapazität für diese Implementierung erhöhen wir unsere Rechenleistung, um die Entwicklung fortschrittlicher KI-Modelle zu beschleunigen und Milliarden von Menschen weltweit persönliche Superintelligenz zu bringen. — @AIatMeta auf X
Dieses Abkommen markiert eine signifikante Diversifizierung der GPU-Lieferanten für Meta, das bisher hauptsächlich auf NVIDIA setzte. Ein Vertrag in dieser Größenordnung — 6 GW, also eine erhebliche Infrastruktur für eine einzelne Partnerschaft — ist ein starkes Signal für Metas Ambitionen im Compute-Bereich für nächste Modellgenerationen.
Qwen 3.5 Medium Series : 4 MoE-Modelle — “More intelligence, less compute”
24. Februar — Alibaba Qwen kündigt die Qwen 3.5 Medium-Serie an, bestehend aus vier Modellen mit MoE-Architektur (Mixture of Experts).
Das auffälligste Ergebnis ist das Qwen3.5-35B-A3B: Mit nur 3B aktiven Parametern (bei 35B Gesamt) übertrifft es das frühere Spitzenmodell Qwen3-235B-A22B. Die MoE-Architektur und ein groß angelegtes RL-Training ermöglichen diese Effizienzdichte.
| Modell | Aktive Parameter | Anmerkung |
|---|---|---|
| Qwen3.5-Flash | — | Kontext 1M tokens, integrierte Tools, gehostet |
| Qwen3.5-35B-A3B | 3B aktiv / 35B total | Übertrifft Qwen3-235B-A22B |
| Qwen3.5-122B-A10B | 10B aktiv / 122B total | — |
| Qwen3.5-27B | 27B | — |
Qwen3.5-Flash ist die gehostete Version der Serie, mit standardmäßigem Kontext von einer Million Tokens und integrierten Tools. Die Modelle sind auf HuggingFace, ModelScope und Qwen Chat verfügbar.
Claude Code v2.1.51 : Remote Control vom Mobilgerät
24. Februar — Claude Code v2.1.51 führt remote-control ein, das meist erwartete Feature der Version: eine lokale Sitzung vom Telefon aus fortsetzen.
Eine im Terminal gestartete Claude Code-Sitzung kann in der mobilen Claude Code-App über /remote-control wieder aufgenommen werden. Die Funktion ist für Max-Nutzer:innen in einer Research Preview verfügbar.
Über Remote Control hinaus bringt diese Version mehrere technische Verbesserungen:
| Änderung | Detail |
|---|---|
| Plugin marketplace timeout | Git : 30s → 120s, konfigurierbar über CLAUDE_CODE_PLUGIN_GIT_TIMEOUT_MS |
| npm registries | Unterstützung für benutzerdefinierte Registries und Version Pinning für plugins |
| BashTool | Skip login shell standardmäßig, wenn Snapshot verfügbar |
| Sicherheits-Hooks | Fix : statusLine und fileSuggestion Hooks ohne Akzeptanz von workspace trust |
| Kontextreduktion | Tool-Ergebnisse > 50K Zeichen werden auf Festplatte persistiert (vorher 100K) |
Claude Cowork : private Plugin-Marktplätze und Cross-App-Orchestrierung
24. Februar — Anthropic veröffentlicht ein größeres Update für Cowork mit privaten Plugin-Marktplätzen für Unternehmen, neuen Konnektoren und Cross-Application-Orchestrierung.
Admins können jetzt private Plugin-Marktplätze für ihre Organisation erstellen: Erstellung aus Templates oder von Grund auf, mit Claude, der bei der Konfiguration hilft. Ein neues einheitliches Menü “Customize” zentralisiert Plugins, Skills und Connectors (MCP). Admins haben zudem Nutzer-Provisioning, Auto-Install und Plugin-Quellen aus privaten GitHub-Repos (in privater Beta).
Bei den Konnektoren erweitert sich die Liste um Google Workspace (Calendar, Drive, Gmail), Docusign, Apollo, Clay, Outreach, Similarweb, MSCI, LegalZoom, FactSet, WordPress und Harvey. Firmen wie Slack, LSEG, S&P Global und Tribe AI haben ebenfalls Plugins veröffentlicht.
Neue Plugin-Templates nach Abteilung sind verfügbar:
| Abteilung | Beispiele für Workflows |
|---|---|
| HR | Angebotsbriefe, Onboarding, Leistungsbeurteilungen |
| Design | UX-Kritiken, Accessibility-Audits, Nutzerforschungspläne |
| Engineering | Standups, Incident Response, Deploy-Checklists, Postmortems |
| Operations | Prozessdokumentation, Lieferantenbewertung |
| Finance | Marktanalyse, Finanzmodellierung, PowerPoint-Folien |
| Investment Banking | Transaktionsdokumente, vergleichende Analysen |
| Private Equity | Due Diligence, Scoring nach Investitionskriterien |
Claude kann nun auch Aufgaben zwischen Excel und PowerPoint orchestrieren — Daten in Excel analysieren und dann eine Präsentation in PowerPoint erzeugen, wobei der Kontext von einem Add-in zum anderen übergeben wird. Diese Funktion ist in einer Research Preview für alle kostenpflichtigen Pläne auf Mac und Windows verfügbar.
Schließlich erlaubt der Support für OpenTelemetry Admins, Nutzung, Kosten und Tool-Aktivität pro Team nachzuverfolgen.
🔗 Blog Cowork Plugins für Unternehmen 🔗 Tweet @claudeai
OpenAI : Codex CLI v0.99.0
24. Februar — Codex CLI wird auf Version 0.99.0 aktualisiert und bringt mehrere neue Funktionen.
Der Befehl /statusline erlaubt jetzt, die im Footer der TUI-Oberfläche angezeigten Metadaten zu personalisieren. GIF- und WebP-Bilder sind als Anhänge zulässig. Die Ausführung direkter Shell-Kommandos blockiert nicht länger einen laufenden Durchgang — sie können konkurrierend ausgeführt werden. Das Snapshotten der Shell-Umgebung und der rc-Konfigurationsdateien ist nun aktiviert.
| Feature | Detail |
|---|---|
/statusline | Interaktive Konfiguration des TUI-Footers |
| Images GIF/WebP | Neue Formate als Anhänge erlaubt |
| Shell snapshot | Snapshot der Shell-Umgebung und rc-Files |
| App-server APIs | Turn/steer, feature discovery, resume_agent |
| Web search control | Eingeschränkte Modi via requirements.toml (Enterprise) |
Ein Security-Fix (RUSTSEC-2026-0009) ist ebenfalls enthalten.
npm install -g @openai/codex@0.99.0
DeepSeek-V3.2 : offizielle Version
24. Februar — DeepSeek kündigt die offizielle Version DeepSeek-V3.2 an, als Nachfolger der experimentellen V3.2-Exp von November 2025.
Laut dem Banner auf der Homepage deepseek.com stärkt V3.2 die Agent-Fähigkeiten und integriert reflexives Reasoning (thinking/reasoning). Die Version ist auf Web, in der mobilen App und über die API verfügbar. Die vollständigen technischen Details sind auf WeChat veröffentlicht (DeepSeeks Hauptankündigungskanal in Chinesisch).
Perplexity und Comet : Sprachmodus für alle
24. Februar — Perplexity rollt ein großes Update seines Sprachmodus auf Perplexity und im Comet-Browser aus, das für alle Nutzer:innen verfügbar ist — nicht nur für Abonnent:innen.
Der neue Sprachmodus von Comet ermöglicht es, die KI zu dem zu befragen, was gerade auf dem Bildschirm angezeigt wird, per Stimme zwischen Websites zu navigieren und in mehreren Tabs zusammenhängend zu sprechen, ohne Kontext zu verlieren. Diese persistente Multi-Tab-Kontextfunktion ist ein Fortschritt gegenüber klassischen Sprachassistenten.
| Aspekt | Detail |
|---|---|
| Verfügbarkeit | Alle Nutzer:innen (nicht nur Abonnent:innen) |
| Plattformen | Android, Mac, Windows |
| Kernfunktion | Sprachgesteuerte Multi-Tab-Navigation mit persistentem Kontext |
🔗 Tweet @perplexity_ai 🔗 Tweet @comet
Google DeepMind : Music AI Sandbox × Wyclef Jean
24. Februar — Google DeepMind und YouTube stellen eine Zusammenarbeit mit Produzent und Künstler Wyclef Jean rund um die Music AI Sandbox vor.
Music AI Sandbox — angetrieben von Lyria 3, dem am 18. Februar angekündigten Musikgenerationsmodell — ermöglicht professionellen Musiker:innen, mit der KI als kreativen Partner zu experimentieren. Wyclef Jean nutzte diese Tools zur Entwicklung seines Songs “Back from Abu Dhabi”. Der Entstehungsprozess ist in einem Video auf YouTube dokumentiert.
Diese Kooperation ist Teil einer Reihe von Künstlerzusammenarbeiten von Google DeepMind, um kreative Anwendungen von KI-Musik in realen Studio-Bedingungen zu erproben.
🔗 Tweet @GoogleAI 🔗 Tweet @GoogleDeepMind
Google DeepMind : Robotics Accelerator in Europa
24. Februar — Google DeepMind startet seinen Robotics Accelerator in Europa, ein Programm für Startups im Robotikbereich.
Das erklärte Ziel ist, die Lücke zwischen Technologie und kommerziellen Anwendungsmöglichkeiten zu schließen und die nächste Generation physischer Agenten zu beschleunigen. Das Programm richtet sich speziell an Startups und bietet Zugang zu Ressourcen und Expertise von Google DeepMind.
NVIDIA + Red Hat : AI Factory für Unternehmen
24. Februar — Red Hat und NVIDIA kündigen gemeinsam die Red Hat AI Factory with NVIDIA an, eine kombinierte Lösung zur Beschleunigung der KI-Einführung in Unternehmen.
Die Plattform verbindet Red Hat AI Enterprise (Orchestrierung und Deployment von Modellen) mit NVIDIA AI Enterprise (GPU-optimierte Softwarestack). Ziel ist es, die operative Komplexität und die Total Cost of Ownership für Organisationen zu senken, die KI-Anwendungen produktiv einsetzen.
Black Forest Labs : Safety Evaluation — 10x weniger Verwundbarkeiten
24. Februar — Black Forest Labs veröffentlicht die Ergebnisse einer unabhängigen Drittbewertung der aufkommenden Risiken für seine FLUX-Modelle.
Die Ergebnisse zeigen mehr als 10x weniger Verwundbarkeiten im Vergleich zu anderen populären Open-Weight-Bildmodellen. BFL behauptet, dass hohe Leistung, offene Innovation und Schutzmaßnahmen Hand in Hand gehen können — ein seltenes Transparenzbekenntnis in der Branche der Open-Source-Bildmodelle.
Kurzfassung
Claude Code v2.1.52 — gezieltes Patch, veröffentlicht unmittelbar nach v2.1.51: Behebung eines Absturzes der VS Code‑Erweiterung unter Windows (command 'claude-vscode.editor.openLast' not found). Keine neuen Features.
GitHub Copilot SDK — PowerPoint‑Agent — GitHub teilt eine Demo (23. Februar), die zeigt, wie man mit dem Copilot SDK einen Agenten baut, der die neuesten Docs suchen, bestehende Folien analysieren, um deren Stil nachzubilden, und neue Folien direkt in PowerPoint erstellen kann. 🔗 Tweet @github
Runway — Interior Designer — Runway stellt einen kreativen Anwendungsfall vor: ein Raumfoto in ein personalisiertes Interior‑Design zu verwandeln, mithilfe einer Kombination aus Nano Banana Pro, Kling 3.0 und Gen-4.5. Eine Marketing‑Demo, die die am 20. Februar gestartete Multi‑Modell‑Plattform veranschaulicht. 🔗 Tweet @runwayml
Was das bedeutet
Die RSP v3.0 von Anthropic markiert einen Wendepunkt im Ansatz zur KI‑Sicherheit: Indem sie ihre Ziele über die Frontier Safety Roadmap öffentlich macht und sich zu Risk Reports mit externer Überprüfung verpflichtet, verwandelt Anthropic eine interne Politik in einen Mechanismus öffentlicher Verantwortung. Das übt sanften Druck auf die gesamte Branche aus — und ist eine implizite Antwort auf Kritik an der Intransparenz von Einsatzentscheidungen.
Die Meta+AMD‑Vereinbarung über 6 GW ist ein Alarmzeichen für NVIDIA: Der bislang von Meta allein genutzte GPU‑Anbieter wird nun offen Konkurrenz ausgesetzt. Für AMD ist das eine großangelegte Bestätigung seiner GPU Instinct, die sich gegenüber den H100/H200 in Trainings‑Workloads noch schwer behaupten konnten.
Qwen 3.5 Medium bestätigt, dass die MoE‑Architektur nicht mehr den sehr großen Modellen vorbehalten ist: Ein 35B‑A3B, der einen 235B übertrifft, ist eine bemerkenswerte Verdichtung von Intelligenz, zugänglich für diejenigen, die nicht die Infrastruktur haben, um die Riesen zu betreiben.
Quellen
- RSP v3.0 — Anthropic
- Tweet @AnthropicAI — RSP v3.0
- Tweet @OpenAIDevs — GPT-5.3-Codex GA
- Tweet @OpenAIDevs — Lovable + OpenRouter
- Tweet @AIatMeta — Meta + AMD
- Tweet @Alibaba_Qwen — Qwen 3.5 Medium
- Tweet @noahzweben — Claude Code Fernsteuerung
- CHANGELOG Claude Code
- Blog Cowork‑Plugins für Unternehmen
- Tweet @claudeai — Cowork
- Codex CLI Changelog v0.99.0
- deepseek.com — Banner V3.2
- Tweet @perplexity_ai — Sprachmodus
- Tweet @comet — Sprachmodus
- Tweet @GoogleAI — Music AI Sandbox × Wyclef Jean
- Tweet @GoogleDeepMind — Music AI Sandbox
- Tweet @GoogleDeepMind — Robotics Accelerator
- Tweet @NVIDIAAI — Red Hat AI Factory
- Tweet @RedHat — Red Hat AI Factory
- Tweet @bfl_ml — Sicherheitsbewertung
- Tweet @github — Copilot SDK PowerPoint
- Tweet @runwayml — Interior Designer
Dieses Dokument wurde aus der französischen Version (fr) in die Sprache en mit dem Modell gpt-5-mini übersetzt. Für weitere Informationen zum Übersetzungsprozess siehe https://gitlab.com/jls42/ai-powered-markdown-translator