Suchen

Claude Opus 4.7 verfügbar, Codex wechselt zu computer use auf macOS, OpenAI startet GPT-Rosalind

Claude Opus 4.7 verfügbar, Codex wechselt zu computer use auf macOS, OpenAI startet GPT-Rosalind

Der 16. April war ein außergewöhnlich ereignisreicher Tag: Anthropic bringt Claude Opus 4.7 allgemein verfügbar mit deutlichen Verbesserungen bei agentischen Benchmarks auf den Markt, OpenAI präsentiert gleichzeitig Codex mit computer use auf macOS und GPT-Rosalind, sein erstes Frontier-Modell für die Lebenswissenschaften. Google erweitert die Gemini-App um personalisierte Bilderzeugung über Nano Banana 2 und Google Photos, Perplexity startet Personal Computer für Mac, und GitHub veröffentlicht den Befehl gh skill für die agentenübergreifende Verwaltung von Fähigkeiten (skills).


Claude Opus 4.7: allgemeine Verfügbarkeit

16. April — Anthropic bringt Claude Opus 4.7 allgemein verfügbar (generally available) heraus. Das Modell folgt auf Opus 4.6 und bietet deutliche Fortschritte bei langen Aufgaben, agentischer Autonomie und der Genauigkeit von Anweisungen.

“Opus 4.7 handles complex, long-running tasks with rigor and consistency, pays precise attention to instructions, and devises ways to verify its own outputs before reporting back.”

🇩🇪 Opus 4.7 bewältigt lange und komplexe Aufgaben mit Strenge und Beständigkeit, achtet präzise auf Anweisungen und entwickelt Wege, seine eigenen Ausgaben zu überprüfen, bevor es sie weitergibt.@claudeai auf X

Zentrale Fähigkeiten

FunktionalitätBeschreibung
Hochauflösende VisionBilder bis zu 2.576 px an der langen Seite (~3,75 Megapixel), 3× die vorherige Auflösung
Aufwandsebene xhighZwischenstufe zwischen high und max, feine Kontrolle über Denken/Latenz
Dateisystem-GedächtnisBessere Persistenz zwischen Arbeitssitzungen
Verstärkte AutonomieÜberprüfung der Ausgaben vor der Übermittlung, strikte Befolgung von Anweisungen
Professionelle QualitätBessere Oberflächen, Folien und Dokumente

Benchmarks

BenchmarkOpus 4.7Opus 4.6GPT-5.4Gemini 3.1 Pro
SWE-bench Pro64,3 %53,4 %57,7 %54,2 %
SWE-bench Verified87,6 %80,8 %80,6 %
Terminal-Bench 2.069,4 %65,4 %75,1 %*68,5 %
Multidisziplinäres Denken (mit Tools)54,7 %53,3 %58,7 %51,4 %
Tool-Nutzung im großen Maßstab – MCP-Atlas77,3 %75,8 %68,1 %73,9 %
Computer use – OSWorld Verified78,0 %72,7 %75,0 %
Fortgeschrittenes Denken – GPQA Diamond94,2 %91,3 %94,4 %94,3 %
Visuelles Denken (mit Tools)91,0 %84,7 %

* GPT-5.4: selbst gemeldetes Ergebnis mit spezifischem Harness

Die auffälligsten Zugewinne liegen bei SWE-bench Pro (+10,9 Punkte), visuellem Denken (+6,3 Punkte mit Tools) und MCP-Atlas (+1,5 Punkte) — Benchmarks, die direkt mit agentischen Anwendungsfällen verbunden sind.

Preisgestaltung und Verfügbarkeit

Opus 4.7 ist ab heute über die Claude API (Kennung claude-opus-4-7), Amazon Bedrock, Google Cloud Vertex AI, Microsoft Foundry und in allen Claude-Produkten verfügbar. Der Preis ist identisch mit Opus 4.6: 5proMillionTokensEingabe,5 pro Million Tokens Eingabe, 25 Ausgabe.

Zwei Hinweise für Entwickler, die von Opus 4.6 migrieren: Der neue Tokenizer kann je nach Inhaltstyp 1,0× bis 1,35× mehr Tokens erzeugen, und Opus 4.7 gibt bei hohen Aufwandsebenen mehr Reasoning-Tokens aus. Anthropic hat einen eigenen Migrationsleitfaden veröffentlicht.

Opus 4.7 ist außerdem das erste Modell, das von den neuen Cybersicherheits-Schutzmechanismen des Glasswing-Projekts profitiert. Ein Cyber Verification Program (Cyber Verification Program) ist für legitime Fachleute geöffnet.

🔗 Offizieller Anthropic-Artikel


Claude Code v2.1.111: /ultrareview, Auto Mode Max, xhigh standardmäßig

16. April — Version 2.1.111 von Claude Code begleitet den Start von Opus 4.7 mit mehreren bedeutenden Ergänzungen.

FunktionalitätBeschreibung
/ultrareviewTiefgehender Code Review im parallelen Multi-Agenten-Modus. Ohne Argument = aktueller Branch; /ultrareview <PR#> für eine GitHub-PR. 3 kostenlose Versuche für Pro und Max.
Auto Mode für MaxDer Auto Mode (Claude entscheidet allein über Berechtigungen) ist jetzt für Max-Abonnenten mit Opus 4.7 verfügbar.
xhigh standardmäßigDie standardmäßige Aufwandsebene wird für alle Pläne auf xhigh erhöht.
/less-permission-promptsScannt Transkripte und schlägt eine priorisierte Zulassungsliste für .claude/settings.json vor.
PowerShell-ToolPowerShell-Unterstützung (schrittweise Einführung). Aktivierbar via CLAUDE_CODE_USE_POWERSHELL_TOOL=1 auf Linux/macOS.
Benannte PlänePläne werden nach dem ursprünglichen Prompt benannt (fix-auth-race-snug-otter.md) statt zufällig.
Read-only-Befehlecd, ls, cat und Read-only-Befehle lösen keine Berechtigungsanfrage mehr aus.

Version 2.1.112 (am Abend des 16. April ausgerollt) behebt umgehend einen Fehler „claude-opus-4-7 is temporarily unavailable“, der im Auto Mode auftauchte.

Boris Cherny (@bcherny) kündigte außerdem höhere Rate Limits für alle Abonnenten an, um das größere Volumen an Reasoning-Tokens von Opus 4.7 auszugleichen. Ein Rate-Limiting-Bug bei Anfragen mit langem Kontext wurde behoben, und die 5h- sowie die wöchentlichen Limits wurden zurückgesetzt.

GitHub Copilot integriert Opus 4.7 ebenfalls ab heute allgemein verfügbar, mit schrittweiser Einführung in VS Code, Visual Studio, dem CLI, GitHub Mobile und den anderen Copilot-Clients. Für Copilot Pro+ ersetzt es in den kommenden Wochen Opus 4.5 und 4.6. Bis zum 30. April gilt ein Aktionspreis (7,5× Multiplikator).

🔗 CHANGELOG Claude Code 🔗 Tweet @bcherny 🔗 Claude Opus 4.7 in GitHub Copilot


OpenAI: Codex wechselt zu computer use, GPT-Rosalind und Cyber-Ökosystem

Codex — computer use auf macOS, integrierter Browser, persistentes Gedächtnis

16. April — OpenAI veröffentlicht ein wichtiges Update für Codex, das von mehr als 3 Millionen Entwicklern pro Woche genutzt wird. Dieses Release erweitert Codex weit über den Code hinaus.

“Codex can now use your computer alongside you, seeing, clicking, and typing with its own cursor.”

🇩🇪 Codex kann jetzt Ihren Computer an Ihrer Seite verwenden, sehen, klicken und mit seinem eigenen Cursor tippen.@OpenAI

Computer use (Computerbenutzung) — Mehrere Codex-Agenten können gleichzeitig auf macOS arbeiten, ohne die geöffneten Anwendungen zu stören. Anwendungsfälle: an Oberflächen iterieren (frontend), Anwendungen testen, in Apps ohne exponierte API arbeiten. Verfügbarkeit in der EU/im Vereinigten Königreich folgt.

FunktionalitätBeschreibung
Integrierter BrowserWebseiten direkt kommentieren, um den Agenten bei Frontend-Entwicklung und Spielen anzuleiten
Bilderzeugunggpt-image-1.5-Integration zum Erstellen von Assets und Mockups im selben Workflow
90+ neue PluginsAtlassian Rovo, CircleCI, CodeRabbit, GitLab Issues, Microsoft Suite, Neon, Remotion, Render, Superpowers…
Persistentes GedächtnisPräferenzen, Korrekturen und Kontext werden zwischen Sitzungen angesammelt
Geplante AutomatisierungenWiederkehrende Aufgaben über Tage oder Wochen hinweg, mit automatischem Aufwachen
SSH-DevboxesVerbindung zu entfernten Servern (Alpha)
Mehrere Terminal-TabsMehrere gleichzeitige Terminals

🔗 Offizieller OpenAI-Artikel

GPT-Rosalind — erstes Frontier-Modell für die Lebenswissenschaften

16. April — OpenAI startet GPT-Rosalind, sein erstes Frontier-Modell für Biologie, Wirkstoffforschung (drug discovery) und translationale Medizin. Der Name ist eine Hommage an Rosalind Franklin, deren Arbeiten dazu beigetragen haben, die Struktur der DNA zu entschlüsseln.

GPT-Rosalind ist für die Synthese wissenschaftlicher Literatur, Hypothesenbildung, experimentelle Planung und Analyse biologischer Daten optimiert.

BenchmarkErgebnis
BixBench (reale Bioinformatik)Beste Leistung unter den Modellen mit veröffentlichten Scores
LABBench2Übertrifft GPT-5.4 bei 6 von 11 Aufgaben
RNA-Sequenzvorhersage (Dyno Therapeutics)Top 95. Perzentil der menschlichen Experten (best-of-10)
RNA-Sequenzgenerierung (Dyno Therapeutics)~84. Perzentil der menschlichen Experten (best-of-10)

Ein kostenloses Life Sciences-Plugin für Codex ist auf GitHub verfügbar: Zugriff auf mehr als 50 öffentliche biologische Datenbanken (menschliche Genomik, Proteomik, Biochemie). GPT-Rosalind ist für qualifizierte Enterprise-Kunden in den USA über das Trusted-Access-Programm als Research Preview verfügbar. Während der Preview werden bestehende Guthaben nicht verbraucht.

Angekündigte Partner: Amgen, Novo Nordisk, Moderna, Thermo Fisher Scientific, NVIDIA, Allen Institute, UCSF School of Pharmacy, Los Alamos National Laboratory.

🔗 Offizieller OpenAI-Artikel

Cyber-Defense-Ökosystem — $10 Mio. API-Guthaben

16. April — OpenAI stellt 10 Millionen US-Dollar an API-Guthaben bereit, um Open-Source-Sicherheitsteams und Vulnerability-Forschende zu unterstützen. Erste Begünstigte: Socket, Semgrep, Calif, Trail of Bits.

Das Trusted-Access-for-Cyber-Programm wird auf neue Organisationen ausgeweitet: Bank of America, BlackRock, BNY, Citi, Cisco, CrowdStrike, Goldman Sachs, JPMorgan Chase, Morgan Stanley, NVIDIA, Oracle, Zscaler. GPT-5.4-Cyber wird außerdem dem U.S. Center for AI Standards and Innovation (CAISI) und dem UK AI Security Institute (UK AISI) für unabhängige Bewertungen zur Verfügung gestellt.

🔗 Offizieller OpenAI-Artikel


Gemini: personalisierte Bilder mit Nano Banana 2 und Google Photos

16. April — Google präsentiert neue Funktionen zur personalisierten Bilderzeugung in der Gemini-App, angetrieben durch Personal Intelligence (persönliche Intelligenz), Nano Banana 2 und die Google-Photos-Bibliothek des Nutzers.

Bisher erforderte das Erstellen eines wirklich persönlichen Bildes mit Gemini detaillierte Prompts und manuell hochgeladene Fotos. Personal Intelligence gibt Gemini nun ein implizites Verständnis des Nutzerkontextes: Es reichen einfache Formulierungen wie „Zeichne mein Traumhaus“ oder „Erstelle ein Bild meiner Essentials für eine einsame Insel“, wobei Gemini die Details automatisch aus verbundenen Google-Apps ergänzt.

Durch die Verbindung mit der Google-Photos-Bibliothek kann der Nutzer Bilder erzeugen, auf denen er selbst und seine Angehörigen direkt erscheinen. Dank der bereits in Photos erstellten Labels (Personen, Haustiere) genügt eine Anfrage wie „Erstelle ein Bild von mir und meiner Familie in Claymation, während wir unsere Lieblingsaktivität machen“.

FunktionalitätDetail
Verfügbare StileAquarell, Zeichenkohle, Ölfarbe, Claymation
Schaltfläche QuellenZeigt an, welches Foto automatisch ausgewählt wurde
VerfeinerungAngeben, was falsch war, ein anderes Referenzfoto auswählen
DatenschutzGemini trainiert NICHT auf der privaten Google-Photos-Bibliothek
Opt-inDie Verbindung von Google-Apps bleibt optional und konfigurierbar

Verfügbarkeit: Rollout über einige Tage für Google AI Plus-, Pro- und Ultra-Abonnenten, derzeit nur in den USA. Erscheint demnächst in Gemini auf Chrome Desktop und für mehr Nutzer.

🔗 blog.google-Artikel

Gemini CLI v0.38.0

14. April — Version v0.38.0 von Gemini CLI ist mit mehreren Verbesserungen der Command-Line-Erfahrung verfügbar.

FunktionalitätDetail
Chapters (narrativer Fluss)Gruppiert Interaktionen in „Kapitel“ nach Absicht und Tool-Nutzung
Context Compression ServiceVerdichtet den Verlauf intelligent für lange Sitzungen
Dauerhafte FreigabenDie Ausführung von Tools freigeben, ohne jedes Mal erneut gefragt zu werden
UI-Flackern behobenBehebung der instabilen Darstellung über den Terminal-Buffer-Modus

🔗 Changelog Gemini CLI


Perplexity Personal Computer: lokaler Agent auf dem Mac

16. April — Perplexity startet Personal Computer, eine in die Mac-App integrierte lokale Agentenfunktion.

“Today we’re releasing Personal Computer. Personal Computer integrates with the Perplexity Mac App for secure orchestration across your local files, native apps, and browser. We’re rolling this out to all Perplexity Max subscribers and everyone on the waitlist starting today.”

🇩🇪 Heute starten wir Personal Computer. Personal Computer ist in die Perplexity-Mac-App integriert, um Ihre lokalen Dateien, nativen Anwendungen und den Browser sicher zu orchestrieren. Wir rollen dies ab heute für alle Perplexity-Max-Abonnenten und für Personen auf der Warteliste aus.@perplexity_ai auf X

Der Agent orchestriert lokale Dateien, native Anwendungen und den Browser sicher, ohne bei sensiblen Daten die Cloud zu nutzen. Der Rollout erfolgt schrittweise: zuerst Perplexity-Max-Abonnenten, dann die Warteliste.

Dies ist ein bemerkenswerter Richtungswechsel für Perplexity: Nachdem das Unternehmen seinen Ruf auf KI-Websuche aufgebaut hat, konzentriert es sich nun auf die lokale Orchestrierung auf dem Desktop — ein Feld, das bereits von Apple Intelligence und OpenAIs Operator erkundet wurde.

🔗 perplexity.ai/computer


GitHub: Befehl gh skill in öffentlicher Vorschau

16. April — GitHub veröffentlicht gh skill in einer öffentlichen Vorschau im GitHub CLI (v2.90.0+). Dieser neue Befehl ermöglicht das Installieren, Entdecken, Aktualisieren und Veröffentlichen von agent skills — portablen Sammlungen von Anweisungen, Skripten und Ressourcen, die das Verhalten von KI-Agenten konfigurieren.

gh skill install github/awesome-copilot documentation-writer
gh skill install github/awesome-copilot doc-writer --agent claude-code
gh skill search mcp-apps
gh skill update --all

Die Skills funktionieren auf mehreren Plattformen: GitHub Copilot, Claude Code, Cursor, Codex, Gemini CLI und Antigravity. Der Befehl integriert Mechanismen zur Sicherheit der Lieferkette (supply chain): Pinning per Tag oder Commit-SHA, unveränderliche Releases und Provenance-Nachverfolgung über Frontmatter. Die offene Spezifikation ist auf agentskills.io verfügbar.

🔗 GitHub-Changelog


Qwen3.6-35B-A3B Open Source und Meta Muse Spark Safety

Qwen3.6-35B-A3B: Open-Source-MoE unter Apache 2.0

15.–16. April — Alibaba kündigt die Open-Source-Veröffentlichung von Qwen3.6-35B-A3B an, einem sparsamen MoE-Modell (mixture-of-experts) mit insgesamt 35 Milliarden Parametern, aber nur 3 Milliarden aktiven Parametern pro Inferenz.

AspektDetail
ArchitekturSparsames MoE: 35B Parameter, 3B aktiv
LizenzApache 2.0
MultimodalNativ (Vision + Denken)
ModiThinking / non-thinking
BenchmarkQwen3.6-35B-A3B
SWE-bench Verified73,4
SWE-bench Multilingual67,2
AIME 202692,7
GPQA86,0

Verfügbar auf Hugging Face / ModelScope, Qwen Studio und über die Alibaba Cloud API (qwen3.6-flash). Nativ kompatibel mit Claude Code, Qwen Code und OpenClaw. 🔗 Offizieller Qwen-Blog

Meta Muse Spark: Sicherheitsbericht veröffentlicht

15. April — Meta AI veröffentlicht den Sicherheits- und Bereitschaftsbericht (Safety & Preparedness Report) von Muse Spark, seinem ersten multimodalen Modell ohne Open-Weights, entwickelt von Meta Superintelligence Labs.

AspektDetail
Verwendeter RahmenMeta Advanced AI Scaling Framework
Bewertete RisikenChemisch/biologisch, Cybersicherheit, Kontrollverlust
Chem/bio-ErgebnisAnfangsrisiko „potenziell hoch“ → validierte Minderungsmaßnahmen → akzeptables Restrisiko

Dieser Bericht markiert einen bemerkenswerten Meilenstein: Meta verfolgt nun vor der Bereitstellung für seine fortgeschrittenen Modelle ein formelles Sicherheitsbewertungsverfahren, ähnlich den Ansätzen von Anthropic und OpenAI.

🔗 Muse Spark Safety-Bericht


Medien und diverse Updates

Runway veröffentlicht am 16. April zwei Updates: Seedance 2.0 unterstützt nun 1080p-Rendering, und Runway Characters integriert jetzt Textskript-Animation (einen Charakter auswählen, das Skript schreiben, generieren). NVIDIA ist auf der NAB Show 2026 vertreten, um KI in der Medienproduktion, Fan-Engagement und die Monetarisierung von Inhalten zu demonstrieren.

Grok iOS erhält im Sprachmodus einen animierten visuellen Indikator: Ein kleiner Kreis zeigt nun an, dass Grok aktiv zuhört.

🔗 Runway — Seedance 2.0 in 1080p 🔗 Runway Characters — Animation per Skript


Was das bedeutet

Der 16. April zeigt einen Tag der agentischen Konvergenz an allen Fronten: Claude Opus 4.7, Codex mit computer use, Perplexity Personal Computer und gh skill teilen dieselbe Logik — Agenten, die auf dem lokalen System handeln können (Dateien, Anwendungen, Computer), koordiniert über mehrere Plattformen hinweg durch portable Standards.

Der Befehl gh skill ist besonders prägend: Indem GitHub eine offene Spezifikation für die agentenübergreifende Installation festlegt (Copilot, Claude Code, Cursor, Codex, Gemini CLI), schafft GitHub eine gemeinsame Infrastruktur, die zum npm install der agentischen Welt werden könnte.

GPT-Rosalind markiert seinerseits eine Weiterentwicklung in der Strategie von OpenAI: Nach den allgemeinen Modellen beginnt das Unternehmen, spezialisierte Frontier-Modelle nach Domäne zu entwickeln — ein Ansatz, der an die vertikale Diversifizierung erinnert, die Google DeepMind bereits in der computergestützten Biologie untersucht hat.


Quellen

Dieses Dokument wurde von der Version fr in die Sprache de mithilfe des Modells gpt-5.4-mini übersetzt. Für weitere Informationen zum Übersetzungsprozess besuchen Sie https://gitlab.com/jls42/ai-powered-markdown-translator