Der 20. April 2026 bündelt mehrere wegweisende Ankündigungen: Anthropic und Amazon erweitern ihre Partnerschaft um 5 GW Rechenkapazität und eine Investition von $5B, GitHub setzt neue Anmeldungen für die individuellen Copilot-Pläne aus und verschärft zugleich die Nutzungsgrenzen, und zwei neue Modelle treiben die Coding-Benchmarks nach oben — Kimi K2.6 im Open-Source-Bereich und Qwen3.6-Max-Preview im proprietären Bereich. OpenAI startet außerdem Codex Chronicle, einen kontextuellen Speicher auf Basis von Screenshots.
Anthropic und Amazon — 5 GW Compute, $5B Investition
20. April — Anthropic und Amazon haben eine neue Infrastrukturvereinbarung unterzeichnet, die bis zu 5 Gigawatt (GW) Rechenkapazität für das Training und den Einsatz von Claude sichert. Eine bedeutende Kapazität auf Basis von Trainium2 kommt bereits im zweiten Quartal 2026 hinzu, wobei bis Ende 2026 insgesamt fast 1 GW an Trainium2 und Trainium3 erwartet werden.
Die Vereinbarung gliedert sich in drei Bereiche:
| Bereich | Detail |
|---|---|
| Infrastruktur | Verpflichtung von mehr als 100 Milliarden USD über 10 Jahre gegenüber AWS, einschließlich Graviton und Trainium2 bis hin zu Trainium4 |
| Claude Platform auf AWS | Die vollständige Claude Platform direkt in AWS integriert — dasselbe Konto, dieselbe Abrechnung, keine separaten Verträge |
| Investition | Amazon investiert heute $5 Milliarden USD in Anthropic, mit bis zu weiteren $20 Milliarden USD in der Zukunft |
Anthropic gibt an, dass sein annualisierter Umsatz nun 30 Milliarden USD übersteigt, gegenüber rund 9 Milliarden Ende 2025. Dieses schnelle Wachstum hat die bestehende Infrastruktur unter Druck gesetzt und die Zuverlässigkeit für Free-, Pro-, Max- und Team-Nutzer zu Spitzenzeiten beeinträchtigt.
Mehr als 100.000 Kunden betreiben Claude bereits auf Amazon Bedrock, und Anthropic nutzt mehr als eine Million Trainium2-Chips. Die vollständige Claude Platform ist jetzt direkt über das AWS-Konto zugänglich, ohne separate Verträge zu benötigen — eine konkrete Änderung für Entwickler und Unternehmen, die bereits auf AWS sind.
Claude bleibt außerdem das einzige führende KI-Modell, das auf allen drei großen globalen Cloud-Plattformen verfügbar ist: AWS (Bedrock), Google Cloud (Vertex AI) und Microsoft Azure (Foundry).
“Our users tell us Claude is increasingly essential to how they work, and we need to build the infrastructure to keep pace with rapidly growing demand.”
🇩🇪 „Unsere Nutzer sagen uns, dass Claude für ihre Arbeitsweise immer unverzichtbarer wird, und wir müssen die Infrastruktur aufbauen, um mit einer stark wachsenden Nachfrage Schritt zu halten.“ — Dario Amodei, über @AnthropicAI auf X
🔗 Offizielle Ankündigung von Anthropic
GitHub Copilot — Aussetzung der Pro-/Pro+-Anmeldungen und Verschärfung der Limits
20. April — GitHub veröffentlicht bedeutende Änderungen an den individuellen Copilot-Plänen. Neue Anmeldungen für die Pläne Pro, Pro+ und Student werden sofort ausgesetzt. Der Plan Copilot Free bleibt weiterhin offen.
Die Änderungen im Detail:
| Änderung | Detail |
|---|---|
| Anmeldungen pausiert | Pro, Pro+, Student — für neue Nutzer geschlossen. Copilot Free bleibt offen |
| Nutzungsgrenzen | Pro+ bietet 5× die Limits von Pro. Warnungen in VS Code und Copilot CLI bei Annäherung an das Limit |
| Opus-Modelle | Opus aus Copilot Pro entfernt. Opus 4.7 bleibt nur auf Pro+ verfügbar. Opus 4.5 und 4.6 werden später ebenfalls aus Pro+ entfernt |
| Erstattung | Möglichkeit, zu kündigen und für April eine Rückerstattung zu erhalten, wenn zwischen dem 20. April und dem 20. Mai 2026 der Support kontaktiert wird |
Für bereits abonnierte Nutzer bleiben bestehende Pläne aktiv. Die konkrete Auswirkung: Pro-Nutzer, die Zugriff auf Opus-Modelle hatten, verlieren diesen Zugang, während Pro+ de facto zur Zwischenstufe mit 5× mehr Kontingent wird. Das Rückerstattungsfenster bis zum 20. Mai lässt einen Monat Zeit zur Entscheidung.
🔗 GitHub Changelog — Änderungen an individuellen Plänen
Kimi K2.6 — SOTA Open-Source im Coding und bei Agents
20. April — Moonshot AI bringt Kimi K2.6 auf den Markt, ein neues Open-Source-Modell, das mehrere Rekorde (state of the art) auf den Coding- und Agenten-Benchmarks aufstellt. Die Ankündigung erreichte innerhalb weniger Stunden mehr als 1,5 Millionen Aufrufe.
Open-Source-Benchmarks:
| Benchmark | Score K2.6 |
|---|---|
| SWE-Bench Pro | 58,6 |
| SWE-bench Multilingual | 76,7 |
| HLE with tools | 54,0 |
| BrowseComp | 83,2 |
| Toolathlon | 50,0 |
| Charxiv w/ python | 86,7 |
| Math Vision w/ python | 93,2 |
Die Verbesserungen gegenüber K2.5 sind erheblich. Beim Long-Horizon-Coding (long-horizon coding) führt K2.6 in einer Sitzung bis zu 4.000 Tool-Aufrufe aus und kann mehr als 12 Stunden am Stück laufen, mit einer Generalisierung über mehrere Sprachen (Rust, Go, Python) und mehrere Aufgaben (Frontend, DevOps, Performance-Optimierung).
Auch die Multi-Agenten-Architektur wurde verbessert: 300 parallele Sub-Agents × 4.000 Schritte pro Ausführung, gegenüber 100 Sub-Agents × 1.500 Schritten bei K2.5. K2.6 unterstützt nativ fortgeschrittene Frontend-Oberflächen — Videos in Hero-Bereichen, WebGL-Shader, GSAP- und Framer-Motion-Animationen sowie 3D-Renderings mit Three.js.
Die Gewichte sind als Open-Source auf HuggingFace verfügbar. Die API ist unter platform.moonshot.ai zugänglich, und das Modell läuft im Chat-Modus und im Agent-Modus auf kimi.com.
🔗 Kimi K2.6-Ankündigung auf X — 🔗 Kimi K2.6-Blog — 🔗 Gewichte auf HuggingFace
Qwen3.6-Max-Preview — Vorabversion des nächsten Flaggschiffmodells
20. April — Alibaba Qwen startet Qwen3.6-Max-Preview, eine Vorabversion seines nächsten proprietären Flaggschiffmodells, Nachfolger von Qwen3.6-Plus.
Gewinne bei den Benchmarks gegenüber Qwen3.6-Plus:
| Benchmark | Gewinn |
|---|---|
| SkillsBench | +9,9 |
| SciCode | +6,3 |
| NL2Repo | +5,0 |
| Terminal-Bench 2.0 | +3,8 |
| QwenChineseBench | +5,3 |
| SuperGPQA | +2,3 |
| ToolcallFormatIFBench | +2,8 |
Das Modell liegt bei 6 wichtigen Coding-Benchmarks vorn: SWE-bench Pro, Terminal-Bench 2.0, SkillsBench, QwenClawBench, QwenWebBench und SciCode. Es ist ab heute im Early Access über chat.qwen.ai und über die Alibaba Cloud Model Studio API unter der Kennung qwen3.6-max-preview verfügbar. Es ist mit den OpenAI- und Anthropic-Spezifikationen kompatibel und unterstützt den Modus preserve_thinking für agentische Aufgaben.
Es handelt sich um eine noch aktiv in Entwicklung befindliche Version — weitere Iterationen werden vor der finalen Veröffentlichung angekündigt.
🔗 Qwen-Ankündigung auf X — 🔗 Blog zu Qwen3.6-Max-Preview
Codex Chronicle (Research Preview) — Kontextspeicher per Screenshots
20. April — OpenAI startet Codex Chronicle als Research Preview, eine neue Kontextspeicher-Funktion für Codex. Chronicle lässt im Hintergrund Agents laufen, um aus aktuellen Screenshots Speicher anzulegen, sodass Codex eine Arbeitssitzung fortsetzen kann, ohne dass der Nutzer den Kontext manuell aktualisieren muss.
Funktionsweise: Die Agents erfassen den Bildschirm regelmäßig, extrahieren den Arbeitskontext und speichern Erinnerungen lokal auf dem Gerät. Der Nutzer kann diese Erinnerungen einsehen und ändern. OpenAI weist darauf hin, dass andere Anwendungen potenziell auf die Screenshot-Dateien zugreifen können.
Zum Start ist die Verfügbarkeit eingeschränkt: nur für Pro-Nutzer auf macOS, während der Lernphase ausgeschlossen aus EU-Ländern, dem Vereinigten Königreich und der Schweiz.
🔗 Codex Chronicle-Ankündigung auf X
Grok — Kohärente Video-Erweiterungen
20. April — Grok Imagine kündigt verbesserte Video-Erweiterungen an (Smarter Video Extensions). Grok sieht nun den ursprünglichen Prompt und den Quellclip, um Erweiterungen zu erzeugen, die in Inhalt und Audio kohärent sind. Die Audio-Kontinuität bleibt über die gesamte Dauer der Erweiterung erhalten. Verfügbar in der Grok-App und im Web.
NotebookLM — Personalisierte Cover für Notebooks
16. April — NotebookLM ermöglicht es nun, jedem Notebook ein benutzerdefiniertes Titelbild und eine Beschreibung hinzuzufügen. Die Funktion soll die Grid-Anzeige vor dem Teilen eines Notebooks personalisieren. Empfohlenes Format: Bild 16:9.
🔗 NotebookLM-Ankündigung auf X
Kurz gesagt
TeenAegis AI Danger Index (18. Apr.) — In seinem ersten AI Danger Index hat TeenAegis OpenAI unter den bewerteten Anbietern den niedrigsten Risikoscore zugewiesen. Der Index bewertet den Schutz junger Nutzer: altersgerechte Kontrollen, Überwachung, Meldungen und Schutzmaßnahmen. 🔗 Tweet von OpenAI Newsroom
OpenAI Academy — 3 Mio.+ Nutzer (19. Apr.) — Die KI-Trainingsplattform von OpenAI überschreitet 3 Millionen Nutzer, mit Präsenzveranstaltungen in dieser Woche von Warschau über Abilene (Texas) bis hin zu Cal State Bakersfield. 🔗 Tweet von OpenAI Newsroom
Was das bedeutet
Die Vereinbarung zwischen Anthropic und Amazon ist in mehrfacher Hinsicht richtungsweisend: Sie formalisiert eine wechselseitige Abhängigkeit (Anthropic braucht Compute, Amazon braucht Claude, um Bedrock wettbewerbsfähig zu halten), und die einheitliche AWS-Abrechnung beseitigt eine echte Reibung für Teams, die bereits im Amazon-Ökosystem sind. Die annualisierte Run-Rate von $30B, die sich in wenigen Monaten mehr als verdreifacht hat, erklärt, warum die Infrastruktur unter Druck steht und warum diese Vereinbarung dringend war.
Auf Modellseite zeigt der 20. April eine Dynamik der schnellen Annäherung: Kimi K2.6 im Open-Source-Bereich erreicht Scores, die mit proprietären Modellen vergleichbar sind, die erst vor wenigen Wochen erschienen sind, und Qwen3.6-Max-Preview positioniert Alibaba schon vor der finalen Version an der Spitze der Coding-Benchmarks. Die Umstrukturierung der Copilot-Pläne bei GitHub signalisiert einen Spannungsbogen zwischen breiter Adoption (Free) und nachhaltiger Monetarisierung (Pro+), wobei sich das Nutzererlebnis je nach Tier fragmentiert.
Quellen
- Offizielle Ankündigung von Anthropic + Amazon
- @AnthropicAI auf X — Haupttweet
- @AnthropicAI auf X — Details zu $5B/$20B
- GitHub Changelog — Änderungen an individuellen Copilot-Plänen
- @Kimi_Moonshot auf X — Kimi K2.6
- Kimi K2.6-Blog
- Kimi K2.6 auf HuggingFace
- @Alibaba_Qwen auf X — Qwen3.6-Max-Preview
- Blog zu Qwen3.6-Max-Preview
- @OpenAIDevs auf X — Codex Chronicle
- @grok auf X — Smarter Video Extensions
- @NotebookLM auf X — Personalisierte Cover
- @OpenAINewsroom — TeenAegis AI Danger Index
- @OpenAINewsroom — OpenAI Academy 3 Mio.+
Dieses Dokument wurde von der fr-Version in die Sprache de mithilfe des Modells gpt-5.4-mini übersetzt. Für weitere Informationen zum Übersetzungsprozess besuchen Sie https://gitlab.com/jls42/ai-powered-markdown-translator