Der 27. April 2026 ist ein ereignisreicher Tag mit strukturell wichtigen Ankündigungen: OpenAI und Microsoft überarbeiten ihre Partnerschaft, um OpenAI mehr Multi-Cloud-Flexibilität zu geben und zugleich Azure als primäre Cloud beizubehalten, GitHub kündigt das Ende der “premium request units” zugunsten eines neuen, nutzungsbasiert abgerechneten Kreditsystems an, und Google DeepMind formalisiert eine bedeutende wissenschaftliche Partnerschaft mit der Republik Korea. Symphony, die Open-Source-Spezifikation von OpenAI für die Orchestrierung von Codex, rundet einen Tag ab, der die Konturen der KI-Infrastruktur neu zeichnet.
OpenAI × Microsoft — bis 2032 angepasstes Abkommen
27. April — OpenAI und Microsoft kündigen ein angepasstes Abkommen an, das ihre langfristige Partnerschaft vereinfacht und neu organisiert. Bislang band die vertragliche Struktur OpenAI eng an Azure mit einer exklusiven Lizenz und einem zweiseitigen Umsatzbeteiligungsmechanismus (revenue share). Das neue Abkommen ändert die Spielregeln.
| Aspect | Vorher | Nachher (angepasstes Abkommen) |
|---|---|---|
| Primäre Cloud | Exklusiv Azure | Azure bleibt vorrangig, aber OpenAI kann auch andere Clouds nutzen |
| Microsoft-Lizenz | Exklusiv | Nicht-exklusiv bis 2032 |
| Revenue share Microsoft → OpenAI | Ja | Entfernt |
| Revenue share OpenAI → Microsoft | Ja | Bis 2030 beibehalten, gleicher Prozentsatz, aber gedeckelt |
| Microsoft-Beteiligung | — | Unverändert (Großaktionär) |
Die zentrale Änderung ist die Multi-Cloud-Freiheit: OpenAI kann nun Verträge mit anderen Infrastrukturanbietern abschließen, ohne seine Verpflichtungen gegenüber Microsoft zu verletzen. Für Microsoft vereinfacht die Abschaffung des eingehenden Revenue Shares (MS → OAI) die Buchhaltung, während die nicht-exklusive Lizenz es dem Unternehmen erlaubt, seine eigenen konkurrierenden Modelle ohne Einschränkung weiterzuentwickeln.
“The greater predictability in the amended agreement strengthens our joint ability to build and operate AI platforms at scale while providing both companies the flexibility to pursue new opportunities.”
🇩🇪 Die erhöhte Vorhersehbarkeit des angepassten Abkommens stärkt unsere gemeinsame Fähigkeit, KI-Plattformen in großem Maßstab aufzubauen und zu betreiben, und gibt beiden Unternehmen zugleich die Flexibilität, neue Chancen zu nutzen. — OpenAI
GitHub Copilot — nutzungsbasierte Abrechnung über GitHub AI Credits ab dem 1. Juni
27. April — GitHub kündigt an, dass alle Copilot-Pläne ab dem 1. Juni 2026 auf ein nutzungsbasiertes Abrechnungsmodell (usage-based billing) umgestellt werden. Das Konzept der “premium request units” (PRUs) entfällt zugunsten der GitHub AI Credits, die entsprechend der tatsächlichen Nutzung von Tokens (Eingabe, Ausgabe, Cache) nach einem modellspezifischen Tarif verbraucht werden.
Starting June 1st, GitHub Copilot will move to a usage-based billing model as GitHub Copilot supports more agentic and advanced workflows.
🇩🇪 Ab dem 1. Juni wird GitHub Copilot auf ein nutzungsbasiertes Abrechnungsmodell umgestellt, da GitHub Copilot immer mehr agentische und fortgeschrittene Workflows unterstützt. — @github auf X
Die Preise der Pläne bleiben unverändert — neu ist, dass die enthaltenen Credits nun dem monatlichen Preis des jeweiligen Plans entsprechen:
| Plan | Monatspreis | Enthaltene AI Credits | Übergangsbonus |
|---|---|---|---|
| Copilot Pro | $10/Monat | $10 in Credits | — |
| Copilot Pro+ | $39/Monat | $39 in Credits | — |
| Copilot Business | $19/Nutzer/Monat | $19 in Credits | $30/Monat zusätzlich (Übergang) |
| Copilot Enterprise | $39/Nutzer/Monat | $39 in Credits | $70/Monat zusätzlich (Übergang) |
Wichtige Punkte für Teams:
- Code-Vervollständigungen und Next-Edit-Vorschläge bleiben enthalten, ohne Credits zu verbrauchen
- Der Fallback-Mechanismus auf günstigere Modelle (wenn die PRUs erschöpft waren) entfällt — sobald die Credits verbraucht sind, stoppt die Nutzung abrupt
- Copilot Code Review verbraucht zusätzlich zu den AI Credits GitHub Actions-Minuten
- Die Credits werden auf Organisationsebene gepoolt — keine verlorenen Credits mehr durch ungenutzte Plätze
- Eine Preview-Rechnung wird im Mai verfügbar sein, um die tatsächlichen Kosten vor der Umstellung zu schätzen
- Admins erhalten neue Budgetkontrollen (Enterprise, Kostenstelle, Team, Nutzer)
🔗 Ankündigung bei blog.github.com
OpenAI Symphony — Open-Source-Spezifikation für die Orchestrierung von Codex
27. April — Das Engineering-Team von OpenAI veröffentlicht Symphony, eine Open-Source-Spezifikation zur Orchestrierung mehrerer Codex-Sitzungen parallel. Das Projekt entstand aus einer radikalen internen Vorgabe: ein ganzes Repository ohne eine einzige Zeile menschlichen Codes zu bauen, wobei jeder Beitrag von Codex generiert werden musste.
Symphony löst den Engpass, der in diesem Experiment schnell sichtbar wurde: das Wechseln des Kontexts (context switching) zwischen unabhängigen Codex-Sitzungen nahm zu viel menschliche Aufsicht in Anspruch. Die Lösung orchestriert automatisch mehrere Agenten auf parallelen Aufgaben, lässt sie dauerhaft auf devboxes laufen und ermöglicht es, Tickets von jedem Gerät aus einzureichen — Smartphone, schlechte Verbindung — damit die Agenten sie ohne Eingriff bearbeiten.
| Metrik | Wert |
|---|---|
| Steigerung der ausgelieferten PRs | +500 % in 3 Wochen (einige OpenAI-Teams) |
| Externe Adoption | Linear meldete bei der Veröffentlichung einen Anstieg der Workspace-Erstellung |
Die zentrale Erkenntnis des Teams: Wenn Ingenieure die Codex-Sitzungen nicht mehr aktiv überwachen müssen, sinken die wahrgenommenen Kosten jeder Codeänderung drastisch. Teams experimentieren mehr, prototypisieren freier und verwerfen leichter Ansätze ohne Mehrwert.
🔗 Ankündigung von OpenAI Engineering
Google DeepMind × Republik Korea — nationale wissenschaftliche Partnerschaft
27. April — Google DeepMind kündigt anlässlich des 10. Jahrestags des historischen AlphaGo-Matches in Seoul eine Partnerschaft mit dem koreanischen Ministerium für Wissenschaft und IKT (MSIT) an. Das Abkommen sieht mehrere konkrete Schwerpunkte vor:
| Bereich | Detail |
|---|---|
| AI Campus | Aufbau eines KI-Campus in Seoul zur Unterstützung der koreanischen akademischen Forschung |
| Eingesetzte Tools | AlphaEvolve, AlphaGenome, AlphaFold, AI co-scientist, WeatherNext |
| Bestehende Nutzung | AlphaFold wird bereits von 85.000 koreanischen Forschern genutzt |
| Stipendien | 50.000 AI Essentials-Stipendien zur Talentförderung |
| KI-Sicherheit | Zusammenarbeit mit dem koreanischen Institut für KI-Sicherheit (AISI) |
| NAIS | Nationales KI-Zentrum für die Wissenschaft für Mai 2026 geplant |
“Ten years ago, the historic AlphaGo match in Seoul captured the world’s imagination and showcased the profound potential of artificial intelligence. Together with the Korean government, we’re now looking at how this technology can help accelerate scientific discovery and create new opportunities for economic growth across the region.”
🇩🇪 Vor zehn Jahren hat das historische AlphaGo-Match in Seoul die Fantasie der ganzen Welt beflügelt und das tiefgreifende Potenzial künstlicher Intelligenz sichtbar gemacht. Gemeinsam mit der koreanischen Regierung prüfen wir nun, wie diese Technologie dazu beitragen kann, wissenschaftliche Entdeckungen zu beschleunigen und neue Chancen für wirtschaftliches Wachstum in der Region zu schaffen. — Google DeepMind
OpenAI “Our Principles” — fünf Prinzipien für das AGI-Zeitalter
26. April — Sam Altman veröffentlicht “Our Principles”, ein Dokument, das OpenAIs Sicht auf die Rolle der KI in der Gesellschaft darlegt. Die zentrale These: KI kann die Gesellschaft in einem größeren Ausmaß verändern als die Dampfmaschine oder Elektrizität, und die grundlegende Frage ist, ob die Macht aus AGI in wenigen Unternehmen konzentriert oder breit verteilt sein wird.
| Prinzip (EN) | FR-Übersetzung |
|---|---|
| Democratization | Demokratisierung |
| Empowerment | Ermächtigung (Empowerment) |
| Universal Prosperity | Universeller Wohlstand |
| Resilience | Resilienz |
| Adaptability | Anpassungsfähigkeit |
Kimi K2.6 — Erster im wöchentlichen OpenRouter-Ranking
27. April — Kimi K2.6 erreicht den ersten Platz im wöchentlichen Ranking (weekly leaderboard) der Sprachmodelle auf OpenRouter, das die Anfragen Tausender Entwickler aggregiert, um ein Maß für die tatsächliche Nutzung zu erstellen. Diese Position spiegelt eine bedeutende Entwickleradoption wider, insbesondere in den Bereichen Agenten und lange Kontextfenster, wo K2.6 sich mit seinen 300 parallelen Sub-Agenten hervorgetan hatte (angekündigt am 23. April).
Kurzmeldungen
- Z.ai — Verlängerung der “Triple-Usage”-Periode für GLM-5.1 und GLM-5-Turbo — Z.ai verlängert bis zum 30. Juni 2026 das Angebot, das Abonnenten des GLM Coding Plan ermöglicht, dasselbe Anfragevolumen wie bei GLM-5-Plus zu einem niedrigeren Preis zu nutzen. 🔗 Quelle
- Genspark × Anthropic — erster Hackathon in Singapur — Mehr als 40 Projekte, $18.000 in API-Credits, mit Temasek und Devfolio als Partnern. Die Teams bauten Tools, um Geschäftsgespräche zu automatisieren, Visitenkarten zu ersetzen und das kollektive Wissen von Teams zu nutzen. 🔗 Quelle
- Google & Kaggle — GenAI Intensive Vibe Coding Course (15.–19. Juni 2026) — Rückkehr des kostenlosen 5-Tage-Kurses, diesmal mit Fokus auf “vibe coding” (Programmierung in natürlicher Sprache). Die erste Ausgabe hatte im November 2025 1,5 Millionen Lernende erreicht. 🔗 Quelle
- Midjourney — High-Resolution-Ranking 2K für v8.1/8.2 — Erste Community-Rating-Session in voller 2K-Auflösung, um die native hochauflösende Ästhetik der kommenden Versionen v8.1 und v8.2 zu verfeinern. 🔗 Quelle
Was das bedeutet
Der 27. April zeigt eine Neuordnung der Allianzen und Geschäftsmodelle der KI. Das angepasste OpenAI × Microsoft-Abkommen signalisiert, dass große KI-Plattformen sich zunehmend von exklusiven Cloud-Abhängigkeiten lösen wollen — eine Entwicklung, von der AWS, Google Cloud und Oracle ebenso profitieren wie OpenAI. Für Entwickler ist das deutlichste Signal die Umstellung von GitHub Copilot auf AI Credits: Das Ende des Modell-Fallbacks bedeutet, dass eine lange agentische Sitzung das Monatsbudget aufbrauchen kann, und Teams müssen ihre Nutzung vor dem 1. Juni genau kalibrieren. OpenAIs Symphony geht in dieselbe Richtung: Die parallele Orchestrierung von Agenten wird zu einer eigenständigen Engineering-Praxis, mit messbaren Ergebnissen (+500 % ausgelieferte PRs), die Investitionen in die Infrastruktur rund um Codex rechtfertigen. Auf geopolitischer Ebene bestätigt die DeepMind × Korea-Partnerschaft den Trend, dass große Labore nationale Vereinbarungen schließen, um ihre akademische und politische Präsenz in wichtigen regionalen Ökosystemen zu verankern.
Quellen
- OpenAI — Die nächste Phase der Microsoft-Partnerschaft
- OpenAI Engineering — Eine Open-Source-Spezifikation für die Codex-Orchestrierung: Symphony
- OpenAI — Our Principles
- Sam Altman auf X
- GitHub Blog — GitHub Copilot is moving to usage-based billing
- @github auf X
- Google DeepMind — Announcing our partnership with the Republic of Korea
- @GoogleDeepMind auf X
- Kaggle GenAI Intensive Vibe Coding Course — blog.google
- @Kimi_Moonshot auf X
- @Zai_org auf X
- @genspark_ai auf X
- Midjourney — High-res rating
- Midjourney — Rank v8.1
Dieses Dokument wurde von der Version fr in die Sprache de unter Verwendung des Modells gpt-5.4-mini übersetzt. Weitere Informationen zum Übersetzungsprozess finden Sie unter https://gitlab.com/jls42/ai-powered-markdown-translator