Suchen

Claude Code Desktop-Neugestaltung, Agents SDK von OpenAI, Gemini 3.1 Flash TTS und Mac-App

Claude Code Desktop-Neugestaltung, Agents SDK von OpenAI, Gemini 3.1 Flash TTS und Mac-App

Ein voller Tag am 15. April: Anthropic startet eine komplette Neugestaltung der Desktop-App Claude Code, ausgerichtet auf parallele Agenten, OpenAI veröffentlicht das Agents SDK v0.14.0 mit nativer Sandbox und standardisierten agentischen Primitiven, Google kündigt gleichzeitig Gemini 3.1 Flash TTS (Elo 1 211) und eine kostenlose macOS-Desktop-App an. Parallel dazu öffnet Mistral die MCP Connectors in Studio, Anthropic veröffentlicht zwei bemerkenswerte Studien zur Ausrichtung, und eine Premiere in der Automobilwerbung: der erste vollständig von KI produzierte Mazda-Spot.


Claude Code Desktop: Neugestaltung für parallele Agenten

14. April — Anthropic startet eine komplette Neugestaltung der Desktop-App Claude Code, gedacht für die Ausführung mehrerer Sitzungen parallel.

“We’ve redesigned Claude Code on desktop. You can now run multiple Claude sessions side by side from the same app.”

🇩🇪 Wir haben Claude Code auf dem Desktop neu gestaltet. Sie können nun mehrere Claude-Sitzungen parallel aus derselben Anwendung starten.@claudeai auf X

FunktionBeschreibung
Sitzungs-SidebarAlle aktiven und kürzlich verwendeten Sitzungen, filterbar nach Status, Projekt oder Umgebung
Side Chat (⌘+; / Ctrl+;)Verzweigt eine Unterhaltung aus der Hauptsitzung, ohne sie zu belasten
Integriertes TerminalTests oder Builds starten, ohne die App zu verlassen
In-App-DateieditorDateien direkt öffnen, ändern und speichern
Neu aufgebauter Diff ViewerVerbesserte Leistung bei großen Changesets
Erweiterte VorschauHTML, PDF, lokale Server im Vorschaufenster
Drag-and-drop-LayoutTerminal, Vorschau, Diff Viewer und Chat frei anordnen
CLI-Plugin-ParitätPlugins funktionieren in der Desktop-App identisch
SSH auf dem Mac erweitertZusätzlich zu Linux können Sitzungen auf entfernte Maschinen zeigen
3 AnsichtsmodiVerbose, Normal, Summary — vom vollständigen Detail bis nur zu den Ergebnissen

Die Sitzungs-Sidebar ist die strukturell wichtigste Änderung: Sie bündelt alle aktiven Sitzungen an einem Ort und verändert damit grundlegend die Arbeitsweise mit mehreren parallelen Agenten. Der Side Chat (⌘+; auf dem Mac, Ctrl+; unter Linux/Windows) ermöglicht es, eine Nebenunterhaltung zu starten, ohne den Kontext der Hauptsitzung zu verschmutzen — nützlich, um eine schnelle Frage zu stellen oder eine Hypothese zu testen.

Die Erweiterung von SSH auf macOS schließt eine bemerkenswerte Lücke zu Linux: Sitzungen können nun vom Mac aus auf entfernte Maschinen zeigen, was Workflows ermöglicht, bei denen der Code auf einem entfernten Server ausgeführt wird, während er weiterhin über die lokale Oberfläche gesteuert wird.

Ab sofort verfügbar für alle Claude Code-Nutzer in den Tarifen Pro, Max, Team, Enterprise und über die Claude API.

🔗 Claude Blog — Claude Code auf dem Desktop neu gestalten 🔗 Die App herunterladen


OpenAI Agents SDK v0.14.0: native Sandbox und agentische Primitiven

15. April — OpenAI veröffentlicht eine bedeutende Weiterentwicklung seines Agents SDK (openai-agents>=0.14.0). Die Ankündigung positioniert dieses SDK als Standardinfrastruktur für den Bau von Agenten in Produktion.

Erweitertes natives Harness

Das SDK integriert nun einen Satz von Primitiven, die sich an dem orientieren, was andere führende agentische Laufzeitumgebungen tun:

PrimitiveBeschreibung
MCP (tool use)Aufruf von Tools über das MCP-Protokoll
AGENTS.mdBenutzerdefinierte Anweisungen über Konfigurationsdatei
shell toolAusführung von Befehlen (Codeausführung)
apply patch toolBearbeitung von Dateien per Patch
SkillsSchrittweise Offenlegung von Fähigkeiten
Konfigurierbares GedächtnisVerwaltung des Langzeitstatus des Agenten

Ausführungsumgebung in der Sandbox (sandbox)

Agenten können nun in kontrollierten Umgebungen (sandboxes) mit eigenem Dateisystem, eigenen Abhängigkeiten und eigenen Tools laufen. Die Trennung zwischen Orchestrator (harness) und Berechnung (compute) ist auf drei Ziele ausgelegt: Anmeldedaten in Umgebungen zu schützen, in denen generierter Code ausgeführt wird, dauerhafte Ausführung über Checkpoint und Rehydrierung zu ermöglichen, falls der Container ausfällt, und Skalierung mit mehreren Sandboxes parallel zu ermöglichen.

Nativ unterstützte Sandbox-Anbieter: Blaxel, Cloudflare, Daytona, E2B, Modal, Runloop, Vercel.

Speicherung über die Abstraktion Manifest: AWS S3, Google Cloud Storage, Azure Blob Storage, Cloudflare R2.

Verfügbarkeit

Python zuerst, TypeScript in einer nächsten Version vorgesehen. Zu den Unternehmen, die vorab getestet haben: Oscar Health, LexisNexis, Thomson Reuters, Zoom.

🔗 Offizielle OpenAI-Ankündigung


Gemini 3.1 Flash TTS: Audio-Tags und Elo 1 211

15. April — Google startet Gemini 3.1 Flash TTS, sein bislang ausdrucksstärkstes und am besten steuerbares Modell für Sprachsynthese (text-to-speech).

Die wichtigste Neuerung ist die Einführung von Audio-Tags: in den Eingabetext direkt eingebettete Anweisungen in natürlicher Sprache, um Sprachstil, Tempo und Tonfall zu steuern. Ein von [excitement] umgebener Abschnitt wird enthusiastisch gesprochen, ein [explanatory] Abschnitt nimmt einen didaktischen Ton an. Dieser Ansatz versetzt den Entwickler in die Rolle eines «Regisseurs», um präzise Audioerlebnisse zu komponieren.

FunktionDetail
Audio-TagsAnweisungen in natürlicher Sprache im Text
Unterstützte Sprachen70+ (davon 24 in hoher Qualität bewertet)
Mehrsprecher-DialogNativ
WatermarkingSynthID in das gesamte erzeugte Audio eingebettet
Elo-Score1 211 (Artificial Analysis TTS Leaderboard)

Mit einem Elo-Score von 1 211 auf dem Referenzranking Artificial Analysis TTS — das Tausende menschlicher Präferenzen im Blindtest misst — wird das Modell im «attraktivsten Quadranten» für sein Verhältnis von Qualität zu Kosten positioniert.

In Google AI Studio stehen drei erweiterte Steuerungen zur Verfügung: Scene direction (Umgebung und Rollenanweisungen festlegen), Speaker-level specificity (einzigartige Audio-Profile pro Charakter) und Seamless export (Export der Parameter als API-Code, um die Stimmkonsistenz zwischen Projekten zu erhalten).

Das gesamte erzeugte Audio wird unmerklich mit SynthID markiert, dem digitalen Wasserzeichen von Google.

Verfügbarkeit:

  • Entwickler: Vorschau (preview) über die Gemini API und Google AI Studio
  • Unternehmen: Vorschau in Vertex AI
  • Workspace-Nutzer: über Google Vids

🔗 blog.google-Artikel — Gemini 3.1 Flash TTS


Gemini App für Mac: nativer Desktop-Client

15. April — Google startet die Gemini-Anwendung für macOS, kostenlos verfügbar für alle Nutzer auf macOS 15 und höher.

FunktionDetail
Globaler ShortcutOption + Space aus jeder Anwendung heraus
FensterfreigabeKontext zu lokalen Dokumenten, Code, Daten
BilderzeugungNano Banana-Integration
VideoerzeugungVeo-Integration
VerfügbarkeitKostenlos, macOS 15+, weltweit

Die Anwendung ist von jedem Bildschirm aus über Option + Space erreichbar und ermöglicht es, Gemini abzufragen, ohne den Arbeitsfluss zu verlassen. Sie kann das aktive Fenster teilen, um sofortigen Kontext zu lokalen Dateien, Tabellen, Grafiken oder Codeblöcken zu liefern.

Google stellt diese Version als eine „erste Version“ vor, die die Grundlage für einen persönlichen und proaktiven Desktop-Assistenten legt, mit weiteren Ankündigungen in den kommenden Monaten.

🔗 blog.google-Artikel — Gemini App für macOS


Claude Code v2.1.108 und v2.1.109: Sitzungs-Recap, 1h-Caching, Thinking

14.–15. April — Zwei neue Claude-Code-Versionen an zwei Tagen.

v2.1.108 bringt mehrere funktionale Verbesserungen:

FunktionBeschreibung
Sitzungs-Recap/recap oder /config, automatisch nach einer Abwesenheit ausgelöst. Kann per CLAUDE_CODE_ENABLE_AWAY_SUMMARY erzwungen werden
Prompt-Caching 1hVariable ENABLE_PROMPT_CACHING_1H für TTL 1h (API key, Bedrock, Vertex, Foundry). FORCE_PROMPT_CACHING_5M erzwingt TTL 5 min
Slash-Commands über Skill toolDas Modell kann die eingebauten Befehle (/init, /review, /security-review) über das Skill tool aufrufen
/undo-Alias/undo ist jetzt ein Alias für /rewind
Verbesserungen bei /modelWarnung vor Modellwechsel (die nächste Antwort liest den vollständigen Verlauf ohne Cache erneut ein)
Verbesserungen bei /resumeStandard für Sitzungen des aktuellen Verzeichnisses; Ctrl+A um alle Projekte zu sehen

Die Funktion /recap ist besonders nützlich in einem Kontext paralleler Agenten: Wenn man zu einer im Hintergrund gelassenen Sitzung zurückkehrt, fasst Claude zusammen, was seit der letzten Interaktion passiert ist.

v2.1.109 bringt eine Verbesserung der Oberfläche für den extended-thinking-Modus: Die Fortschrittsanzeige dreht sich mit einem rotierenden Hinweis, um besser zu visualisieren, dass das Modell in der Denkphase ist.

🔗 CHANGELOG Claude Code


Anthropic: automatisierte Alignment-Forscher (PGR 0.97)

14. April — Im Rahmen des Anthropic Fellows-Programms ein originelles Experiment: Kann man Claude Opus 4.6 nutzen, um die Alignment-Forschung zu beschleunigen?

Das Problem der „weak-to-strong supervision“ ist ein Proxy für die kommende Herausforderung: Wie supervisieren wir Modelle, die intelligenter sind als wir? Das Experiment verwendet ein starkes Modell (Qwen 3-4B-Base) und ein schwaches Modell als „Lehrer“ (Qwen 1.5-0.5B-Chat). Die Metrik performance gap recovered (PGR) misst, in welchem Ausmaß das starke Modell die Grenzen des schwachen Lehrers übertrifft.

Aufbau: 9 Kopien von Claude Opus 4.6, ausgestattet mit Tools (Sandbox, gemeinsames Forum, Speicher, Score-Server), arbeiten 5 Tage lang parallel. Jede Instanz erhält einen leicht unterschiedlichen Ausgangspunkt, um die Vielfalt der Ansätze zu fördern.

IndikatorWert
Menschliche Baseline (7 Tage, 4 Methoden)PGR 0.23
Automatisierte Forscher nach 5 Tagen (800h kumuliert)PGR 0.97
Gesamtkosten~18 000 ( 22(~22/Stunde pro Instanz)
Mathematische GeneralisierungPGR 0.94
Code-GeneralisationPGR 0.47 (doppelt so hoch wie die Baseline)
Produktionstest (Claude Sonnet 4)Keine signifikante Verbesserung

Die Forscher stellen klar, dass dieses Ergebnis nicht bedeutet, dass Claude ein „allgemeiner Alignment-Wissenschaftler“ ist — das gewählte Problem eignet sich außergewöhnlich gut für Automatisierung (eine einzige objektive Messgröße). Das Experiment zeigt jedoch, dass Claude die Experimentiergeschwindigkeit in der Alignment-Forschung vervielfachen kann und dass die Vielfalt der Ausgangspunkte entscheidend ist. Code und Daten sind Open Source verfügbar.

🔗 Anthropic Blog — Automated Alignment Researchers


Subliminales Lernen in LLMs in Nature veröffentlicht

15. April — Ein von Anthropic und Owain Evans mitverfasster Forschungsartikel wurde in der Zeitschrift Nature über das Phänomen des subliminalen Lernens (subliminal learning) von LLMs veröffentlicht.

“Research we co-authored on subliminal learning—how LLMs can pass on traits like preferences or misalignment through hidden signals in data—was published today in Nature.”

🇩🇪 Gemeinsam verfasste Forschung zum subliminalen Lernen — dazu, wie LLMs Merkmale wie Präferenzen oder Fehlanpassung über in Daten versteckte Signale weitergeben können — wurde heute in Nature veröffentlicht.@AnthropicAI auf X

Das Papier zeigt, dass LLMs Merkmale (etwa „Eulen mögen“) über scheinbar neutrale Daten weitergeben können (zum Beispiel Zahlenfolgen ohne Bezug zum Merkmal). Dieses Phänomen der verdeckten Übertragung wirft wichtige Sicherheitsfragen auf: Ein Modell könnte Präferenzen oder Fehlanpassung über Trainingsdaten verbreiten, ohne dass dies durch direkte Inspektion erkennbar wäre. Ein Preprint wurde im Juli 2025 veröffentlicht.

🔗 Nature-Artikel — Subliminal Learning


GPT-5.4-Cyber und Erweiterung des TAC-Programms

14. April — OpenAI kündigt die Ausweitung seines Programms Trusted Access for Cyber (TAC) auf Tausende verifizierte einzelne Verteidiger und Hunderte von Teams an, die für den Schutz kritischer Software verantwortlich sind.

Ein neues Modell, GPT-5.4-Cyber, ist nun für Nutzer der höchsten Programmstufen zugänglich. Es handelt sich um eine auf defensive Cybersicherheit optimierte Variante von GPT-5.4, mit einer abgesenkten Ablehnungsschwelle für legitime Nutzungen und einer exklusiven Fähigkeit zum binären Reverse Engineering (Analyse kompilierter Software ohne Zugriff auf den Quellcode).

Das TAC-Programm arbeitet auf drei Ebenen:

  1. Einzelnutzer: Identitätsprüfung auf chatgpt.com/cyber
  2. Unternehmen: Team-Zugang über OpenAI-Vertreter
  3. Höhere Stufen (Zugang zu GPT-5.4-Cyber): verstärkte Authentifizierung + Interessensbekundung

Codex Security, Anfang 2026 gestartet, hat bereits dazu beigetragen, mehr als 3 000 kritische und hohe Schwachstellen zu beheben.

🔗 Offizielle OpenAI-Ankündigung


Gemini Personal Intelligence: weltweite Einführung

15. April — Die Personal-Intelligence-Funktion der Gemini-App wird international ausgerollt. Bisher auf die USA beschränkt, ist sie nun für Abonnenten von Google AI Ultra, Pro und Plus weltweit verfügbar, mit einem Rollout für kostenlose Nutzer in Kürze.

Personal Intelligence ermöglicht es Gemini, personalisierte und kontextbezogene Antworten zu liefern, indem es sich mit den Google-Anwendungen des Nutzers verbindet: Search, Gmail, Google Photos und YouTube. Google hat außerdem angekündigt, dass Personal Intelligence im Verlauf der Woche in Google Chrome verfügbar sein wird.

🔗 Tweet @GeminiApp


Mistral Connectors MCP in Studio (Public Preview)

15. April — Mistral AI startet die Connectors in Mistral Studio als öffentliche Vorschau (Public Preview) und ermöglicht damit, Unternehmensdatenquellen über das MCP-Protokoll anzubinden.

Ein Connector kapselt eine Integration als wiederverwendbare, auf MCP basierende Entität. Einmal registriert, wird er in Studio verwaltet und überwacht und wird zu einem nativen Tool für jede Unterhaltung, jeden Agenten oder jeden Workflow.

| Funktion | Detail | | --------------------------------------- | -------------------------------------------------------------------- | ------------------------------------------------------------------------------------------- | | Integrierte und benutzerdefinierte MCPs | Verfügbar für alle Modell- und Agentenanfragen | | Direkter Tool-Aufruf | Präzise Kontrolle darüber, wann und wie Tools aufgerufen werden | | Menschliche Validierung in der Schleife | Konfigurierbarer Freigabefluss vor der Ausführung von Tools | | Programmatischer Zugriff | Erstellen, ändern, auflisten und löschen von Connectors über die API | | Zentralisiertes Register | Verfügbar in allen Mistral-Apps (Le Chat, AI Studio, Vibe in Kürze) | Unterstützte Integrationen: CRM, Wissensdatenbanken, Produktivitätstools, GitHub, Websuche. |

🔗 Mistral-Ankündigung — Connectors


Erster vollständig von KI produzierter Werbespot für Automobile

15. April — Luma Agents hat den ersten vollständig von KI produzierten Mazda-Werbespot ermöglicht. Die unabhängige Kreativagentur Boundless (Johannesburg) nutzte Luma, um eine Kampagne zu erstellen, die mehrere Generationen des MX-5 und jahrzehntelanges Storytelling der Marke zusammenbringt. Gesamtzeit vom Konzept bis zur endgültigen Freigabe: weniger als zwei Wochen.

Luma nennt diesen Fall als Beispiel für KI-native kreative Workflows: schnellere Produktion, ohne Kompromisse bei der kreativen Vision.

🔗 Luma Labs — Boundless × Mazda


Kleinere Ankündigungen

Kling AI Skill (15. April) — Kling führt eine One-Stop-Verpackung seiner APIs für die direkte Integration in KI-Agenten ein. Agenten können auf Text/Image-to-Video-Generierung, 4K-Bildgenerierung und Szene-zu-Szene-Konsistenz zugreifen, ohne komplexe Konfiguration. Kompatibel mit Claude Code, Cursor, Codex, Copilot. 🔗 Kling AI Skill-Dokumentation

Qwen in OpenCode (15. April) — Qwen3.6-Plus und Qwen3.5-Plus sind jetzt im Coding-Tool OpenCode verfügbar. Qwen3.5-Plus ist 3x günstiger als Qwen3.6-Plus, beide Modelle unterstützen Bilder und bieten Zero Data Retention. 🔗 Tweet @Alibaba_Qwen

Copilot Cloud Agent — selektive Aktivierung (15. April) — GitHub Enterprise-Admins können den Copilot Cloud Agent jetzt selektiv pro Organisation über benutzerdefinierte Eigenschaften (custom properties) aktivieren. Drei neue REST-Endpunkte ermöglichen die Verwaltung dieser Richtlinie per API. 🔗 GitHub-Changelog


Was das bedeutet

Der 15. April zeigt eine Konvergenz: Die großen Akteure statten ihre Entwicklungsumgebungen mit einer standardisierten agentischen Infrastruktur aus. Claude Code Desktop, die OpenAI Agents SDK und Mistral Connectors folgen derselben Logik — mehrere Agents parallel orchestrieren, sie mit Primitiven ausstatten (MCP, AGENTS.md, Shell, Dateien) und ihnen eine isolierte Ausführungsumgebung bieten.

Die strukturell wichtigste Ankündigung bleibt das Redesign von Claude Code Desktop: Die Session-Seitenleiste und der Side Chat verändern die Art, mit mehreren Agents gleichzeitig zu arbeiten — ein Nutzungsmodell, das für Entwickler, die auf KI setzen, zunehmend zum Standard wird.

Auf der Forschungsseite signalisieren die Nature-Veröffentlichung über subliminales Lernen und das Experiment zu automatisierten Alignment-Forschern (PGR 0.97 für 18.000 $), dass Anthropic parallel in das Verständnis langfristiger Risiken investiert — ein Gleichgewicht zwischen unmittelbarer Produktivität und struktureller Sicherheit.


Quellen

Dieses Dokument wurde aus der fr-Version in die Sprache de unter Verwendung des Modells gpt-5.4-mini übersetzt. Weitere Informationen zum Übersetzungsprozess finden Sie unter https://gitlab.com/jls42/ai-powered-markdown-translator