Suchen

DeepSeek-V4 und GPT-5.5 erobern die IDEs, Cohere fusioniert mit Aleph Alpha, Claude Code v2.1.119

DeepSeek-V4 und GPT-5.5 erobern die IDEs, Cohere fusioniert mit Aleph Alpha, Claude Code v2.1.119

Der 25. April 2026 bündelt wichtige Ankündigungen zu Frontier-Modellen und Developer-Tools. DeepSeek-V4 wird als Open Source veröffentlicht und ist kostenlos auf NVIDIA Blackwell verfügbar. GPT-5.5 wird in GitHub Copilot und der OpenAI API allgemein verfügbar. Die Fusion von Cohere + Aleph Alpha, gestützt von 600 Millionen Dollar der Schwarz Group, legt die Grundlage für transatlantische souveräne KI. Auf der Tool-Seite erweitern Claude Code v2.1.119 und der Auto-review-Modus von Codex die Autonomie von Development-Agents.


DeepSeek-V4 überall verfügbar

Launch und Open Source

24. April — DeepSeek kündigt gleichzeitig DeepSeek-V4-Pro und DeepSeek-V4-Flash an. V4-Pro ist ein mixture-of-experts-Modell mit 1,6 Billionen Parametern (49 Milliarden aktiv), einem Kontextfenster von einer Million tokens und angekündigten Leistungen, die mit den besten geschlossenen Modellen vergleichbar sind. V4-Flash, kompakter (284B/13B aktiv), zielt auf Anwendungsfälle mit geringer Latenz. Beide Modelle sind vom ersten Tag an Open Source, mit API und Demo sofort verfügbar, und der technische Bericht wurde auf Hugging Face veröffentlicht.

🔗 DeepSeek-V4-Ankündigung

API-Promotion und Integrationen

25. April — DeepSeek kündigt eine -75 %-Promotion auf die V4-Pro-API bis zum 5. Mai 2026 (15:59 UTC) an. Die Integrationen Claude Code, OpenCode und OpenClaw wurden aktualisiert, um das neue Modell zu unterstützen.

🔗 DeepSeek-V4-Pro API-Promotion

DeepSeek-V4-Pro auf NVIDIA Blackwell, kostenlos

24. April — NVIDIA macht DeepSeek-V4-Pro kostenlos über die NVIDIA NIM API-Oberfläche auf Blackwell auf build.nvidia.com zugänglich. Die Ankündigung erzielte 160.000 Aufrufe. NVIDIA veröffentlicht außerdem die ersten Performance-Kurven (Pareto frontier) von DeepSeek-V4-Pro auf Blackwell Ultra mit vLLM — ein früher Referenzpunkt für High-Performance-Deployments.

25. April — NVIDIA betont parallel die Grenzen klassischer Inferenz für Development-Agents: “Traditional inference wasn’t built for agentic coding”, in Bezug auf die Hunderte von API-Aufrufen, die moderne agentische Tools erzeugen.

🔗 DeepSeek-V4-Pro auf NVIDIA NIM 🔗 Blackwell Ultra Day 0


GPT-5.5 kommt aus der Vorpremiere heraus

Allgemeine Verfügbarkeit in GitHub Copilot

24. April — GPT-5.5 wird schrittweise in GitHub Copilot für die Pläne Pro+, Business und Enterprise ausgerollt. Die Verfügbarkeit umfasst VS Code, Visual Studio, die Copilot CLI, den Cloud-Agent, github.com, die mobile App (iOS und Android), JetBrains-IDEs, Xcode und Eclipse. Der Promotionsmultiplikator ist auf 7,5× festgelegt. Enterprise- und Business-Administratoren müssen die Richtlinie in den Einstellungen aktivieren, um davon zu profitieren.

🔗 GitHub Copilot Changelog — GPT-5.5 GA

API-Zugang für Entwickler

24. April — Am Tag nach dem öffentlichen Launch öffnet OpenAI den Zugang zu GPT-5.5 in der API. Das Modell ist über die Responses API und die Chat Completions API verfügbar, mit einem Kontextfenster von einer Million tokens. Die Variante GPT-5.5-Pro für hochpräzise Arbeiten ist nur über die Responses API zugänglich.

“GPT-5.5 is available in the Responses and Chat Completions APIs with a 1M context window. GPT-5.5-pro is also available in the Responses API for higher-accuracy work.”

🇩🇪 “GPT-5.5 ist in den Responses API und Chat Completions mit einem Kontextfenster von einer Million tokens verfügbar. GPT-5.5-Pro ist ebenfalls in der Responses API für hochpräzise Arbeiten verfügbar.”@OpenAIDevs

🔗 OpenAI API-Ankündigung

GPT-5.5 bei Perplexity Max und Personal Computer

24. April — GPT-5.5 ist für Max-Abonnenten bei Perplexity verfügbar und wird als standardmäßiges Orchestrierungsmodell in Personal Computer für die Pläne Pro und Max ausgerollt.

🔗 Perplexity-Ankündigung

Bio Bug Bounty — Biosicherheitsprogramm

23. April — OpenAI eröffnet ein Bug-Bounty-Programm, das der Biosicherheit von GPT-5.5 gewidmet ist. Forschende mit Schwerpunkt KI-Sicherheit oder Biosicherheit sind eingeladen, einen universellen Jailbreak zu finden, der die biologischen Sicherheitsvorkehrungen des Modells umgeht. Die Hauptprämie beträgt 25.000 USD für den ersten Erfolg. Bewerbungen sind bis zum 22. Juni 2026 möglich; die Tests laufen vom 28. April bis zum 27. Juli 2026, ausschließlich auf GPT-5.5 in Codex Desktop, auf Einladung mit Vertraulichkeitsvereinbarung.

🔗 GPT-5.5 Bio Bug Bounty


Developer-Tools: mehr Autonomie

Claude Code v2.1.119

25. April — Anthropic veröffentlicht Claude Code v2.1.119, ein umfangreiches Update der CLI mit mehr als vierzig Änderungen.

BereichÄnderung
Config/config persistent in ~/.claude/settings.json
PR--from-pr unterstützt GitLab, Bitbucket, GitHub Enterprise
HooksPostToolUse + Feld duration_ms
PowerShellAuto-Genehmigung im Berechtigungsmodus
MCPVerbindung zu Subagent-Servern parallel
Bugs behoben40+

Die Persistenz der /config-Einstellungen ist die sichtbarste Änderung: Themenpräferenzen, Editor-Modus oder Verbose-Level überstehen Neustarts. Der Parameter --from-pr akzeptiert nun GitLab-Merge-Request-, Bitbucket-Pull-Request- und GitHub-Enterprise-URLs, was den Workflow für Teams erweitert, die GitHub.com nicht nutzen. Die Hooks PostToolUse und PostToolUseFailure erhalten jetzt das Feld duration_ms, nützlich für Monitoring in CI/CD. Die Verbindung von MCP-Servern erfolgt jetzt parallel, wodurch die Startzeiten von Workflows mit mehreren Servern reduziert werden.

🔗 Claude Code CHANGELOG

Codex Auto-review — verlängerte Autonomie mit Sicherheitsnetz

24. April — OpenAI kündigt Auto-review an, einen neuen Ausführungsmodus für Codex. Dieser Modus ermöglicht es Codex, bei langen Aufgaben voranzukommen, ohne bei jedem Schritt eine Genehmigung einzuholen. Ein separater Agent bewertet Schritte mit hohem Risiko vor ihrer Ausführung, wodurch sich Test-, Build- und lange Automatisierungs-Workflows flüssiger gestalten lassen, ohne die Sicherheit zu opfern.

🔗 Codex Auto-review

Copilot für JetBrains: Inline Agent Mode in Vorschau

24. April — Das Update des Copilot-Plugins für JetBrains IDEs bringt mehrere Funktionen: den Inline-Agent-Mode in öffentlicher Vorschau (Tastenkürzel Shift+Ctrl+I oder Shift+Cmd+I), verbesserte Next Edit Suggestions (NES) mit Wasserzeichen-Vorschauen und entfernten Änderungen sowie die globale Auto-Genehmigung für Agent-Tool-Aufrufe.

🔗 JetBrains Copilot Changelog

NVIDIA Dynamo — Inferenz für Agents neu gedacht

25. April — NVIDIA stellt Dynamo vor, eine Überarbeitung des Inferenz-Stacks, um den Lastprofilen agentischer Tools gerecht zu werden. Agents wie Claude Code, Codex oder Copilot führen pro Session Hunderte von API-Aufrufen mit bei jedem Schritt neu zusammengesetztem Kontext aus, wodurch Engpässe entstehen, die die Kosten pro token erhöhen. Dynamo kombiniert vier Komponenten: KV-Cache-sensibles Routing, für Agents konzipiertes Scheduling, mehrstufiges Caching und einheitliche Orchestrierung. NVIDIA kündigt bis zu 7× zusätzlichen Durchsatz bei höheren Cache-Trefferraten und reduzierter Latenz an.

🔗 NVIDIA Dynamo — agentische Inferenz


Souveränität und Enterprise-Partnerschaften

Cohere + Aleph Alpha: transatlantische Fusion mit 600 Millionen USD von Schwarz Group

24. April — Cohere (Kanada) und Aleph Alpha (Deutschland) kündigen ihren Fusionsplan an. Schwarz Group — die Eigentümergruppe von Lidl und Kaufland — investiert 600 Millionen USD (etwa 500 Millionen Euro) in strukturierter Finanzierung für Cohere Series E. Die kombinierte Plattform wird auf STACKIT gehostet, dem souveränen Cloud-Dienst von Schwarz Digits.

“Sovereign AI for the world. Cohere & Aleph Alpha form transatlantic AI powerhouse anchored in Canada & Germany!”

🇩🇪 “Souveräne KI für die Welt. Cohere und Aleph Alpha bilden eine transatlantische KI-Power, verwurzelt in Kanada und Deutschland!”@cohere auf X

Die Vereinbarung zielt auf regulierte Branchen, Regierungen und einen Markt für souveräne KI im Wert von etwa 600 Milliarden USD. Sie steht weiterhin unter dem Vorbehalt der Zustimmung der Aktionäre von Aleph Alpha.

Anthropic und NEC: erste globale japanische Partnerschaft

24. April — Anthropic kündigt eine strategische Partnerschaft mit NEC Corporation an, die zum ersten globalen japanischen Partner von Anthropic wird. NEC wird Claude bei rund 30.000 Mitarbeitenden der Gruppe weltweit einführen.

AspektDetail
Betroffene Mitarbeitende~30.000 (NEC Group weltweit)
Eingesetzte ProdukteClaude, Claude Opus 4.7, Claude Code, Claude Cowork
ZielbranchenFinanzen, Produktion, Cybersicherheit, Kommunalverwaltung
ProgrammNEC BluStellar Scenario

Intern richtet NEC ein Center of Excellence ein, um ein KI-Ingenieurteam in großem Maßstab zu schulen, im Rahmen der Initiative “Client Zero”. Für seine Kunden werden NEC und Anthropic gemeinsam Lösungen für die Finanzbranche, die Fertigungsindustrie und japanische Kommunen entwickeln.

🔗 Anthropic und NEC

Meta verbündet sich mit AWS für agentische KI für Milliarden Nutzer

24. April — Meta kündigt eine Vereinbarung mit AWS an, um Dutzende Millionen Graviton5-Kerne in seine Infrastruktur zu integrieren. Ziel ist es, die CPU-intensiven Workloads der agentischen KI für Milliarden Nutzer zu unterstützen.

🔗 Meta × AWS Graviton5


Gemini: Produkt- und Forschungsupdates

Gemini Drops April 2026 — Lyria 3 Pro, Gemini Live v3.1

24. April — Google veröffentlicht die 10. Ausgabe der Gemini Drops. Lyria 3 Pro ermöglicht es, Musikstücke von bis zu 3 Minuten direkt in Gemini zu erstellen, verfügbar für Plus-, Pro- und Ultra-Abonnenten. Gemini Live v3.1 ist 20 % schneller und bietet doppelt so viel gespeicherten Kontext. Personal Intelligence wird international ausgeweitet (außer Europäischer Wirtschaftsraum, Schweiz, Vereinigtes Königreich, Südkorea, Australien und Nigeria). Die Branching-Funktion wird für 20 % der Nutzer ausgerollt.

🔗 Gemini Drops April 2026

Gemini Embedding 2 allgemein verfügbar

22. April — Gemini Embedding 2 wird in der Gemini API und Vertex AI allgemein verfügbar (GA). Das Vektorrepräsentationsmodell zielt auf semantische Suche, Retrieval Augmented Generation (RAG) und Klassifizierung.

🔗 Gemini Embedding 2 GA

Decoupled DiLoCo — verteiltes Training über mehrere Regionen

23. April — Google DeepMind veröffentlicht Decoupled DiLoCo, eine Methode für verteiltes Training über Netzwerke mit geringer Bandbreite. Gemma 12B wurde über 4 US-Regionen hinweg mit einer Mischung aus TPU6e und TPUv5p trainiert. Die Methode ebnet den Weg für dezentrales Modelltraining im globalen Maßstab, ohne die normalerweise erforderlichen Hochgeschwindigkeitsverbindungen.

🔗 Decoupled DiLoCo — Google DeepMind


Alternative Modelle: Qwen und Grok

Qwen3.6-27B — dichtes Flaggschiffmodell für agentisches Coding

22. April — Alibaba veröffentlicht Qwen3.6-27B, ein dichtes Modell mit 27 Milliarden Parametern als Open Source unter Apache-2.0-Lizenz. Trotz seiner kompakten Größe übertrifft es Qwen3.5-397B-A17B — ein MoE-Modell mit 397 Milliarden Parametern, von denen 17 Milliarden aktiv sind — bei den wichtigsten Benchmarks für agentisches Coding, mit einem SWE-Bench-Verified-Score von 77,2 % gegenüber 76,2 % beim Vorgänger. In der Ankündigung werden drei Achsen hervorgehoben: agentic coding, das die alte Generation bei allen großen Benchmarks übertrifft, starkes Denken in Text und multimodal, sowie dichtes Deployment ohne MoE-Komplexität.

Das Modell unterstützt die Modi thinking und non-thinking in einem einzigen Checkpoint. Es ist auf Hugging Face verfügbar (Qwen/Qwen3.6-27B, FP8-Variante enthalten) und ModelScope, mit einem technischen Blog und einem eigenen Github. Die Ankündigung erzeugte 3,5 Millionen Aufrufe auf X.

🔗 Qwen3.6-27B-Ankündigung

Qwen-Image-2.0-Pro — #9 weltweit Text-to-Image

25. April — Alibaba Qwen veröffentlicht Qwen-Image-2.0-Pro, das den 9. Platz weltweit im Text-to-Image-Arena-Ranking und den 6. Platz bei Porträts erreicht. Das Modell ist über die Alibaba-Cloud-API und ModelScope verfügbar.

🔗 Qwen-Image-2.0-Pro

Grok Voice Think Fast 1.0 — #1 Tau Voice Bench

23. April — xAI bringt das Modell grok-voice-think-fast-1.0 über die xAI Console API heraus. Das Modell beansprucht den ersten Platz im Tau Voice Bench, mit integrierter Reasoning-Funktion ohne zusätzliche Latenz. Es ist bereits in der Produktion bei Starlink für den Kundensupport im Einsatz. Die Architektur ist vereinheitlicht und unterscheidet sich von den im April angekündigten Grok-STT/TTS-APIs.

🔗 Grok Voice Think Fast 1.0

Grok Imagine — verbesserte Lip-Sync

25. April — Grok Imagine kündigt eine Verbesserung der Lippensynchronisation (lip sync) und der Audioqualität für alle image-to-video-Generierungen an.

🔗 Grok Imagine Lip-Sync


Mediengenerierung und Sprach-Agents

Kling AI 4K — natives Upscaling aus niedriger Auflösung

24. April — Kling AI bringt Kling 4K auf den Markt, eine Funktion zur Bildvergrößerung in nativer 4K-Qualität aus Quellen mit niedriger Auflösung. Die Ankündigung, zusammengefasst als “Blurry in. 4K out.”, erzielte 5,82 Millionen Aufrufe. Diese Funktion ist getrennt von Kling Video 3.0.

🔗 Kling AI 4K

Runway integriert GPT Image 2

24. April — Runway integriert GPT Image 2 von OpenAI in seine Plattform zur Videoproduktion.

🔗 Runway × GPT Image 2

ElevenLabs × Customers Bank — sprachbasierte Banking-Agents

24. April — ElevenLabs kündigt den Einsatz von ElevenAgents bei Customers Bank an (25 Milliarden USD an Vermögenswerten). Drei Agenten sind im Einsatz: 24/7-Kundensupport, Onboarding neuer Kunden und Echtzeit-Coaching für Berater.

🔗 ElevenLabs × Customers Bank

ElevenLabs — Botschafterprogramm

23. April — ElevenLabs öffnet die Bewerbungen für sein Botschafterprogramm, das zwei Stufen umfasst: Community Builders und Botschafter, mit Credits, Goodies und frühem Zugang zu neuen Funktionen. Die Ankündigung erzielte 116.000 Aufrufe.

🔗 ElevenLabs Botschafterprogramm


Anthropic-Forschung: Sicherheit und Agenten

Wahlschutzmaßnahmen — Ergebnisse der Bewertungen

24. April — Mit Blick auf die US-Midterms 2026 veröffentlicht Anthropic eine Bilanz seiner Wahlschutzmaßnahmen. Claude Opus 4.7 und Sonnet 4.6 erreichen in den Bewertungen zur Messung der Ausgewogenheit politischer Antworten jeweils 95 % und 96 %.

ModellPolitische KonformitätAblehnung von EinflussoperationenWebsuche aktiviert
Opus 4.7100 %94 %92 %
Sonnet 4.699,8 %90 %95 %

Ein TurboVote-Banner (parteiunabhängige Ressource von Democracy Works) wird auf Claude.ai angezeigt, um Nutzer zu verlässlichen Informationen zur Stimmabgabe bei den Midterms 2026 zu leiten.

🔗 Aktualisierung zum Wahlschutz — Anthropic

Project Deal — Claude-Agenten als Verhandlungsführer

24. April — Anthropic veröffentlicht die Ergebnisse von Project Deal, einem internen Experiment zu KI-Agenten in einem Craigslist-ähnlichen Marktplatz. Eine Woche lang vertraten Claude-Agenten die Mitarbeitenden des San-Francisco-Büros beim Kauf und Verkauf von Gegenständen unter Kolleginnen und Kollegen. Insgesamt wurden 186 Deals mit vier parallelen Modellkonfigurationen abgeschlossen.

KennzahlWert
Dauer1 Woche
Konfigurationen4 (alles-Opus 4.7, alles-Haiku, 2 Mischungen)
Abgeschlossene Deals186
Vorteil Opus vs. Haikuim Schnitt +2 Deals, höhere Preise
Effekt aggressiver Anweisungenstatistisch nicht signifikant

“New Anthropic research: Project Deal. We created a marketplace for employees in our San Francisco office—like Craigslist—where Claude agents negotiated deals on their behalf.”

🇩🇪 “Neue Anthropic-Forschung: Project Deal. Wir haben einen Marktplatz für die Mitarbeitenden unseres San-Francisco-Büros geschaffen — wie Craigslist — auf dem Claude-Agenten im Namen der Mitarbeitenden Deals ausgehandelt haben.”@AnthropicAI auf X

Die bemerkenswerteste Erkenntnis: Aggressive Anweisungen (“verhandle hart”) hatten keinen statistisch signifikanten Einfluss auf die Ergebnisse — nicht wegen mangelhafter Befolgung der Anweisungen, sondern wegen der marktbedingten Einschränkungen.

🔗 Project Deal — Anthropic


Was das bedeutet

Der 25. April zeigt eine schnelle Konsolidierung rund um einige starke Trends. Bei den Frontier-Modellen setzen DeepSeek-V4 und GPT-5.5 einen neuen Mindeststandard für frei zugängliche Fähigkeiten: Ein Kontextfenster von einer Million tokens ist kein Premium-Unterscheidungsmerkmal mehr. Die kostenlose Verfügbarkeit von DeepSeek-V4-Pro auf NVIDIA Blackwell, zusammen mit der API-Promo von -75 %, signalisiert einen direkten Preiswettbewerb mit geschlossenen Modellen.

Auf der Entwickler-Tool-Seite manifestiert sich die Ausweitung agentischer Autonomie an mehreren Fronten gleichzeitig — Claude Code v2.1.119, Codex Auto-review, Inline Agent Mode in JetBrains. Diese Updates laufen auf ein gemeinsames Ziel hinaus: menschliche Unterbrechungen in langen Pipelines zu reduzieren und gleichzeitig Kontrollpunkte für riskante Vorgänge zu erhalten. Die von Project Deal aufgeworfene Frage nach dem rechtlichen Rahmen für Agenten, die in unserem Namen handeln, bekommt in diesem Kontext besondere Relevanz.

Die Fusion von Cohere + Aleph Alpha mit 600 Millionen USD von Schwarz Group ist das strukturell wichtigste Signal für souveräne europäische KI. Sie schafft einen transatlantischen Akteur mit Fokus auf Regierungen und regulierte Branchen, mit einer dedizierten Cloud-Infrastruktur (STACKIT), in einem Markt, der auf 600 Milliarden USD geschätzt wird. Die parallele Partnerschaft Anthropic + NEC zeigt, dass sich dieselbe Logik der Souveränität auf Asien ausdehnt.


Quellen

Dieses Dokument wurde von der Version fr in die Sprache de mit dem Modell gpt-5.4-mini übersetzt. Für weitere Informationen über den Übersetzungsprozess besuchen Sie https://gitlab.com/jls42/ai-powered-markdown-translator