Der 16. April war ein außergewöhnlich ereignisreicher Tag: Anthropic bringt Claude Opus 4.7 allgemein verfügbar mit deutlichen Verbesserungen bei agentischen Benchmarks auf den Markt, OpenAI präsentiert gleichzeitig Codex mit computer use auf macOS und GPT-Rosalind, sein erstes Frontier-Modell für die Lebenswissenschaften. Google erweitert die Gemini-App um personalisierte Bilderzeugung über Nano Banana 2 und Google Photos, Perplexity startet Personal Computer für Mac, und GitHub veröffentlicht den Befehl gh skill für die agentenübergreifende Verwaltung von Fähigkeiten (skills).
Claude Opus 4.7: allgemeine Verfügbarkeit
16. April — Anthropic bringt Claude Opus 4.7 allgemein verfügbar (generally available) heraus. Das Modell folgt auf Opus 4.6 und bietet deutliche Fortschritte bei langen Aufgaben, agentischer Autonomie und der Genauigkeit von Anweisungen.
“Opus 4.7 handles complex, long-running tasks with rigor and consistency, pays precise attention to instructions, and devises ways to verify its own outputs before reporting back.”
🇩🇪 Opus 4.7 bewältigt lange und komplexe Aufgaben mit Strenge und Beständigkeit, achtet präzise auf Anweisungen und entwickelt Wege, seine eigenen Ausgaben zu überprüfen, bevor es sie weitergibt. — @claudeai auf X
Zentrale Fähigkeiten
| Funktionalität | Beschreibung |
|---|---|
| Hochauflösende Vision | Bilder bis zu 2.576 px an der langen Seite (~3,75 Megapixel), 3× die vorherige Auflösung |
| Aufwandsebene xhigh | Zwischenstufe zwischen high und max, feine Kontrolle über Denken/Latenz |
| Dateisystem-Gedächtnis | Bessere Persistenz zwischen Arbeitssitzungen |
| Verstärkte Autonomie | Überprüfung der Ausgaben vor der Übermittlung, strikte Befolgung von Anweisungen |
| Professionelle Qualität | Bessere Oberflächen, Folien und Dokumente |
Benchmarks
| Benchmark | Opus 4.7 | Opus 4.6 | GPT-5.4 | Gemini 3.1 Pro |
|---|---|---|---|---|
| SWE-bench Pro | 64,3 % | 53,4 % | 57,7 % | 54,2 % |
| SWE-bench Verified | 87,6 % | 80,8 % | — | 80,6 % |
| Terminal-Bench 2.0 | 69,4 % | 65,4 % | 75,1 %* | 68,5 % |
| Multidisziplinäres Denken (mit Tools) | 54,7 % | 53,3 % | 58,7 % | 51,4 % |
| Tool-Nutzung im großen Maßstab – MCP-Atlas | 77,3 % | 75,8 % | 68,1 % | 73,9 % |
| Computer use – OSWorld Verified | 78,0 % | 72,7 % | 75,0 % | — |
| Fortgeschrittenes Denken – GPQA Diamond | 94,2 % | 91,3 % | 94,4 % | 94,3 % |
| Visuelles Denken (mit Tools) | 91,0 % | 84,7 % | — | — |
* GPT-5.4: selbst gemeldetes Ergebnis mit spezifischem Harness
Die auffälligsten Zugewinne liegen bei SWE-bench Pro (+10,9 Punkte), visuellem Denken (+6,3 Punkte mit Tools) und MCP-Atlas (+1,5 Punkte) — Benchmarks, die direkt mit agentischen Anwendungsfällen verbunden sind.
Preisgestaltung und Verfügbarkeit
Opus 4.7 ist ab heute über die Claude API (Kennung claude-opus-4-7), Amazon Bedrock, Google Cloud Vertex AI, Microsoft Foundry und in allen Claude-Produkten verfügbar. Der Preis ist identisch mit Opus 4.6: 25 Ausgabe.
Zwei Hinweise für Entwickler, die von Opus 4.6 migrieren: Der neue Tokenizer kann je nach Inhaltstyp 1,0× bis 1,35× mehr Tokens erzeugen, und Opus 4.7 gibt bei hohen Aufwandsebenen mehr Reasoning-Tokens aus. Anthropic hat einen eigenen Migrationsleitfaden veröffentlicht.
Opus 4.7 ist außerdem das erste Modell, das von den neuen Cybersicherheits-Schutzmechanismen des Glasswing-Projekts profitiert. Ein Cyber Verification Program (Cyber Verification Program) ist für legitime Fachleute geöffnet.
🔗 Offizieller Anthropic-Artikel
Claude Code v2.1.111: /ultrareview, Auto Mode Max, xhigh standardmäßig
16. April — Version 2.1.111 von Claude Code begleitet den Start von Opus 4.7 mit mehreren bedeutenden Ergänzungen.
| Funktionalität | Beschreibung |
|---|---|
/ultrareview | Tiefgehender Code Review im parallelen Multi-Agenten-Modus. Ohne Argument = aktueller Branch; /ultrareview <PR#> für eine GitHub-PR. 3 kostenlose Versuche für Pro und Max. |
| Auto Mode für Max | Der Auto Mode (Claude entscheidet allein über Berechtigungen) ist jetzt für Max-Abonnenten mit Opus 4.7 verfügbar. |
| xhigh standardmäßig | Die standardmäßige Aufwandsebene wird für alle Pläne auf xhigh erhöht. |
/less-permission-prompts | Scannt Transkripte und schlägt eine priorisierte Zulassungsliste für .claude/settings.json vor. |
| PowerShell-Tool | PowerShell-Unterstützung (schrittweise Einführung). Aktivierbar via CLAUDE_CODE_USE_POWERSHELL_TOOL=1 auf Linux/macOS. |
| Benannte Pläne | Pläne werden nach dem ursprünglichen Prompt benannt (fix-auth-race-snug-otter.md) statt zufällig. |
| Read-only-Befehle | cd, ls, cat und Read-only-Befehle lösen keine Berechtigungsanfrage mehr aus. |
Version 2.1.112 (am Abend des 16. April ausgerollt) behebt umgehend einen Fehler „claude-opus-4-7 is temporarily unavailable“, der im Auto Mode auftauchte.
Boris Cherny (@bcherny) kündigte außerdem höhere Rate Limits für alle Abonnenten an, um das größere Volumen an Reasoning-Tokens von Opus 4.7 auszugleichen. Ein Rate-Limiting-Bug bei Anfragen mit langem Kontext wurde behoben, und die 5h- sowie die wöchentlichen Limits wurden zurückgesetzt.
GitHub Copilot integriert Opus 4.7 ebenfalls ab heute allgemein verfügbar, mit schrittweiser Einführung in VS Code, Visual Studio, dem CLI, GitHub Mobile und den anderen Copilot-Clients. Für Copilot Pro+ ersetzt es in den kommenden Wochen Opus 4.5 und 4.6. Bis zum 30. April gilt ein Aktionspreis (7,5× Multiplikator).
🔗 CHANGELOG Claude Code 🔗 Tweet @bcherny 🔗 Claude Opus 4.7 in GitHub Copilot
OpenAI: Codex wechselt zu computer use, GPT-Rosalind und Cyber-Ökosystem
Codex — computer use auf macOS, integrierter Browser, persistentes Gedächtnis
16. April — OpenAI veröffentlicht ein wichtiges Update für Codex, das von mehr als 3 Millionen Entwicklern pro Woche genutzt wird. Dieses Release erweitert Codex weit über den Code hinaus.
“Codex can now use your computer alongside you, seeing, clicking, and typing with its own cursor.”
🇩🇪 Codex kann jetzt Ihren Computer an Ihrer Seite verwenden, sehen, klicken und mit seinem eigenen Cursor tippen. — @OpenAI
Computer use (Computerbenutzung) — Mehrere Codex-Agenten können gleichzeitig auf macOS arbeiten, ohne die geöffneten Anwendungen zu stören. Anwendungsfälle: an Oberflächen iterieren (frontend), Anwendungen testen, in Apps ohne exponierte API arbeiten. Verfügbarkeit in der EU/im Vereinigten Königreich folgt.
| Funktionalität | Beschreibung |
|---|---|
| Integrierter Browser | Webseiten direkt kommentieren, um den Agenten bei Frontend-Entwicklung und Spielen anzuleiten |
| Bilderzeugung | gpt-image-1.5-Integration zum Erstellen von Assets und Mockups im selben Workflow |
| 90+ neue Plugins | Atlassian Rovo, CircleCI, CodeRabbit, GitLab Issues, Microsoft Suite, Neon, Remotion, Render, Superpowers… |
| Persistentes Gedächtnis | Präferenzen, Korrekturen und Kontext werden zwischen Sitzungen angesammelt |
| Geplante Automatisierungen | Wiederkehrende Aufgaben über Tage oder Wochen hinweg, mit automatischem Aufwachen |
| SSH-Devboxes | Verbindung zu entfernten Servern (Alpha) |
| Mehrere Terminal-Tabs | Mehrere gleichzeitige Terminals |
GPT-Rosalind — erstes Frontier-Modell für die Lebenswissenschaften
16. April — OpenAI startet GPT-Rosalind, sein erstes Frontier-Modell für Biologie, Wirkstoffforschung (drug discovery) und translationale Medizin. Der Name ist eine Hommage an Rosalind Franklin, deren Arbeiten dazu beigetragen haben, die Struktur der DNA zu entschlüsseln.
GPT-Rosalind ist für die Synthese wissenschaftlicher Literatur, Hypothesenbildung, experimentelle Planung und Analyse biologischer Daten optimiert.
| Benchmark | Ergebnis |
|---|---|
| BixBench (reale Bioinformatik) | Beste Leistung unter den Modellen mit veröffentlichten Scores |
| LABBench2 | Übertrifft GPT-5.4 bei 6 von 11 Aufgaben |
| RNA-Sequenzvorhersage (Dyno Therapeutics) | Top 95. Perzentil der menschlichen Experten (best-of-10) |
| RNA-Sequenzgenerierung (Dyno Therapeutics) | ~84. Perzentil der menschlichen Experten (best-of-10) |
Ein kostenloses Life Sciences-Plugin für Codex ist auf GitHub verfügbar: Zugriff auf mehr als 50 öffentliche biologische Datenbanken (menschliche Genomik, Proteomik, Biochemie). GPT-Rosalind ist für qualifizierte Enterprise-Kunden in den USA über das Trusted-Access-Programm als Research Preview verfügbar. Während der Preview werden bestehende Guthaben nicht verbraucht.
Angekündigte Partner: Amgen, Novo Nordisk, Moderna, Thermo Fisher Scientific, NVIDIA, Allen Institute, UCSF School of Pharmacy, Los Alamos National Laboratory.
Cyber-Defense-Ökosystem — $10 Mio. API-Guthaben
16. April — OpenAI stellt 10 Millionen US-Dollar an API-Guthaben bereit, um Open-Source-Sicherheitsteams und Vulnerability-Forschende zu unterstützen. Erste Begünstigte: Socket, Semgrep, Calif, Trail of Bits.
Das Trusted-Access-for-Cyber-Programm wird auf neue Organisationen ausgeweitet: Bank of America, BlackRock, BNY, Citi, Cisco, CrowdStrike, Goldman Sachs, JPMorgan Chase, Morgan Stanley, NVIDIA, Oracle, Zscaler. GPT-5.4-Cyber wird außerdem dem U.S. Center for AI Standards and Innovation (CAISI) und dem UK AI Security Institute (UK AISI) für unabhängige Bewertungen zur Verfügung gestellt.
Gemini: personalisierte Bilder mit Nano Banana 2 und Google Photos
16. April — Google präsentiert neue Funktionen zur personalisierten Bilderzeugung in der Gemini-App, angetrieben durch Personal Intelligence (persönliche Intelligenz), Nano Banana 2 und die Google-Photos-Bibliothek des Nutzers.
Bisher erforderte das Erstellen eines wirklich persönlichen Bildes mit Gemini detaillierte Prompts und manuell hochgeladene Fotos. Personal Intelligence gibt Gemini nun ein implizites Verständnis des Nutzerkontextes: Es reichen einfache Formulierungen wie „Zeichne mein Traumhaus“ oder „Erstelle ein Bild meiner Essentials für eine einsame Insel“, wobei Gemini die Details automatisch aus verbundenen Google-Apps ergänzt.
Durch die Verbindung mit der Google-Photos-Bibliothek kann der Nutzer Bilder erzeugen, auf denen er selbst und seine Angehörigen direkt erscheinen. Dank der bereits in Photos erstellten Labels (Personen, Haustiere) genügt eine Anfrage wie „Erstelle ein Bild von mir und meiner Familie in Claymation, während wir unsere Lieblingsaktivität machen“.
| Funktionalität | Detail |
|---|---|
| Verfügbare Stile | Aquarell, Zeichenkohle, Ölfarbe, Claymation |
| Schaltfläche Quellen | Zeigt an, welches Foto automatisch ausgewählt wurde |
| Verfeinerung | Angeben, was falsch war, ein anderes Referenzfoto auswählen |
| Datenschutz | Gemini trainiert NICHT auf der privaten Google-Photos-Bibliothek |
| Opt-in | Die Verbindung von Google-Apps bleibt optional und konfigurierbar |
Verfügbarkeit: Rollout über einige Tage für Google AI Plus-, Pro- und Ultra-Abonnenten, derzeit nur in den USA. Erscheint demnächst in Gemini auf Chrome Desktop und für mehr Nutzer.
Gemini CLI v0.38.0
14. April — Version v0.38.0 von Gemini CLI ist mit mehreren Verbesserungen der Command-Line-Erfahrung verfügbar.
| Funktionalität | Detail |
|---|---|
| Chapters (narrativer Fluss) | Gruppiert Interaktionen in „Kapitel“ nach Absicht und Tool-Nutzung |
| Context Compression Service | Verdichtet den Verlauf intelligent für lange Sitzungen |
| Dauerhafte Freigaben | Die Ausführung von Tools freigeben, ohne jedes Mal erneut gefragt zu werden |
| UI-Flackern behoben | Behebung der instabilen Darstellung über den Terminal-Buffer-Modus |
Perplexity Personal Computer: lokaler Agent auf dem Mac
16. April — Perplexity startet Personal Computer, eine in die Mac-App integrierte lokale Agentenfunktion.
“Today we’re releasing Personal Computer. Personal Computer integrates with the Perplexity Mac App for secure orchestration across your local files, native apps, and browser. We’re rolling this out to all Perplexity Max subscribers and everyone on the waitlist starting today.”
🇩🇪 Heute starten wir Personal Computer. Personal Computer ist in die Perplexity-Mac-App integriert, um Ihre lokalen Dateien, nativen Anwendungen und den Browser sicher zu orchestrieren. Wir rollen dies ab heute für alle Perplexity-Max-Abonnenten und für Personen auf der Warteliste aus. — @perplexity_ai auf X
Der Agent orchestriert lokale Dateien, native Anwendungen und den Browser sicher, ohne bei sensiblen Daten die Cloud zu nutzen. Der Rollout erfolgt schrittweise: zuerst Perplexity-Max-Abonnenten, dann die Warteliste.
Dies ist ein bemerkenswerter Richtungswechsel für Perplexity: Nachdem das Unternehmen seinen Ruf auf KI-Websuche aufgebaut hat, konzentriert es sich nun auf die lokale Orchestrierung auf dem Desktop — ein Feld, das bereits von Apple Intelligence und OpenAIs Operator erkundet wurde.
GitHub: Befehl gh skill in öffentlicher Vorschau
16. April — GitHub veröffentlicht gh skill in einer öffentlichen Vorschau im GitHub CLI (v2.90.0+). Dieser neue Befehl ermöglicht das Installieren, Entdecken, Aktualisieren und Veröffentlichen von agent skills — portablen Sammlungen von Anweisungen, Skripten und Ressourcen, die das Verhalten von KI-Agenten konfigurieren.
gh skill install github/awesome-copilot documentation-writer
gh skill install github/awesome-copilot doc-writer --agent claude-code
gh skill search mcp-apps
gh skill update --all
Die Skills funktionieren auf mehreren Plattformen: GitHub Copilot, Claude Code, Cursor, Codex, Gemini CLI und Antigravity. Der Befehl integriert Mechanismen zur Sicherheit der Lieferkette (supply chain): Pinning per Tag oder Commit-SHA, unveränderliche Releases und Provenance-Nachverfolgung über Frontmatter. Die offene Spezifikation ist auf agentskills.io verfügbar.
Qwen3.6-35B-A3B Open Source und Meta Muse Spark Safety
Qwen3.6-35B-A3B: Open-Source-MoE unter Apache 2.0
15.–16. April — Alibaba kündigt die Open-Source-Veröffentlichung von Qwen3.6-35B-A3B an, einem sparsamen MoE-Modell (mixture-of-experts) mit insgesamt 35 Milliarden Parametern, aber nur 3 Milliarden aktiven Parametern pro Inferenz.
| Aspekt | Detail |
|---|---|
| Architektur | Sparsames MoE: 35B Parameter, 3B aktiv |
| Lizenz | Apache 2.0 |
| Multimodal | Nativ (Vision + Denken) |
| Modi | Thinking / non-thinking |
| Benchmark | Qwen3.6-35B-A3B |
|---|---|
| SWE-bench Verified | 73,4 |
| SWE-bench Multilingual | 67,2 |
| AIME 2026 | 92,7 |
| GPQA | 86,0 |
Verfügbar auf Hugging Face / ModelScope, Qwen Studio und über die Alibaba Cloud API (qwen3.6-flash). Nativ kompatibel mit Claude Code, Qwen Code und OpenClaw. 🔗 Offizieller Qwen-Blog
Meta Muse Spark: Sicherheitsbericht veröffentlicht
15. April — Meta AI veröffentlicht den Sicherheits- und Bereitschaftsbericht (Safety & Preparedness Report) von Muse Spark, seinem ersten multimodalen Modell ohne Open-Weights, entwickelt von Meta Superintelligence Labs.
| Aspekt | Detail |
|---|---|
| Verwendeter Rahmen | Meta Advanced AI Scaling Framework |
| Bewertete Risiken | Chemisch/biologisch, Cybersicherheit, Kontrollverlust |
| Chem/bio-Ergebnis | Anfangsrisiko „potenziell hoch“ → validierte Minderungsmaßnahmen → akzeptables Restrisiko |
Dieser Bericht markiert einen bemerkenswerten Meilenstein: Meta verfolgt nun vor der Bereitstellung für seine fortgeschrittenen Modelle ein formelles Sicherheitsbewertungsverfahren, ähnlich den Ansätzen von Anthropic und OpenAI.
Medien und diverse Updates
Runway veröffentlicht am 16. April zwei Updates: Seedance 2.0 unterstützt nun 1080p-Rendering, und Runway Characters integriert jetzt Textskript-Animation (einen Charakter auswählen, das Skript schreiben, generieren). NVIDIA ist auf der NAB Show 2026 vertreten, um KI in der Medienproduktion, Fan-Engagement und die Monetarisierung von Inhalten zu demonstrieren.
Grok iOS erhält im Sprachmodus einen animierten visuellen Indikator: Ein kleiner Kreis zeigt nun an, dass Grok aktiv zuhört.
🔗 Runway — Seedance 2.0 in 1080p 🔗 Runway Characters — Animation per Skript
Was das bedeutet
Der 16. April zeigt einen Tag der agentischen Konvergenz an allen Fronten: Claude Opus 4.7, Codex mit computer use, Perplexity Personal Computer und gh skill teilen dieselbe Logik — Agenten, die auf dem lokalen System handeln können (Dateien, Anwendungen, Computer), koordiniert über mehrere Plattformen hinweg durch portable Standards.
Der Befehl gh skill ist besonders prägend: Indem GitHub eine offene Spezifikation für die agentenübergreifende Installation festlegt (Copilot, Claude Code, Cursor, Codex, Gemini CLI), schafft GitHub eine gemeinsame Infrastruktur, die zum npm install der agentischen Welt werden könnte.
GPT-Rosalind markiert seinerseits eine Weiterentwicklung in der Strategie von OpenAI: Nach den allgemeinen Modellen beginnt das Unternehmen, spezialisierte Frontier-Modelle nach Domäne zu entwickeln — ein Ansatz, der an die vertikale Diversifizierung erinnert, die Google DeepMind bereits in der computergestützten Biologie untersucht hat.
Quellen
- Anthropic — Claude Opus 4.7 vorstellen
- Tweet @claudeai — Opus 4.7 GA
- Tweet @bcherny — Erhöhte Rate Limits
- CHANGELOG Claude Code (GitHub)
- GitHub Changelog — Claude Opus 4.7 in Copilot
- OpenAI — Codex für fast alles
- OpenAI — GPT-Rosalind vorstellen
- OpenAI — Beschleunigung des Cyberabwehr-Ökosystems
- blog.google — Gemini: personalisierte Bilder mit Nano Banana 2
- Changelog Gemini CLI
- perplexity.ai/computer
- Tweet @perplexity_ai — Personal Computer
- GitHub Changelog — gh skill
- Qwen-Blog — Qwen3.6-35B-A3B
- Meta AI — Muse Spark Sicherheitsbericht
- Tweet @runwayml — Seedance 2.0 1080p
- Tweet @runwayml — Runway Characters Skript
Dieses Dokument wurde von der Version fr in die Sprache de mithilfe des Modells gpt-5.4-mini übersetzt. Für weitere Informationen zum Übersetzungsprozess besuchen Sie https://gitlab.com/jls42/ai-powered-markdown-translator