Suchen

Microsoft × OpenAI-Abkommen angepasst, GitHub wechselt zur nutzungsbasierten Abrechnung, DeepMind in Korea

Microsoft × OpenAI-Abkommen angepasst, GitHub wechselt zur nutzungsbasierten Abrechnung, DeepMind in Korea

Der 27. April 2026 ist ein ereignisreicher Tag mit strukturell wichtigen Ankündigungen: OpenAI und Microsoft überarbeiten ihre Partnerschaft, um OpenAI mehr Multi-Cloud-Flexibilität zu geben und zugleich Azure als primäre Cloud beizubehalten, GitHub kündigt das Ende der “premium request units” zugunsten eines neuen, nutzungsbasiert abgerechneten Kreditsystems an, und Google DeepMind formalisiert eine bedeutende wissenschaftliche Partnerschaft mit der Republik Korea. Symphony, die Open-Source-Spezifikation von OpenAI für die Orchestrierung von Codex, rundet einen Tag ab, der die Konturen der KI-Infrastruktur neu zeichnet.


OpenAI × Microsoft — bis 2032 angepasstes Abkommen

27. April — OpenAI und Microsoft kündigen ein angepasstes Abkommen an, das ihre langfristige Partnerschaft vereinfacht und neu organisiert. Bislang band die vertragliche Struktur OpenAI eng an Azure mit einer exklusiven Lizenz und einem zweiseitigen Umsatzbeteiligungsmechanismus (revenue share). Das neue Abkommen ändert die Spielregeln.

AspectVorherNachher (angepasstes Abkommen)
Primäre CloudExklusiv AzureAzure bleibt vorrangig, aber OpenAI kann auch andere Clouds nutzen
Microsoft-LizenzExklusivNicht-exklusiv bis 2032
Revenue share Microsoft → OpenAIJaEntfernt
Revenue share OpenAI → MicrosoftJaBis 2030 beibehalten, gleicher Prozentsatz, aber gedeckelt
Microsoft-BeteiligungUnverändert (Großaktionär)

Die zentrale Änderung ist die Multi-Cloud-Freiheit: OpenAI kann nun Verträge mit anderen Infrastrukturanbietern abschließen, ohne seine Verpflichtungen gegenüber Microsoft zu verletzen. Für Microsoft vereinfacht die Abschaffung des eingehenden Revenue Shares (MS → OAI) die Buchhaltung, während die nicht-exklusive Lizenz es dem Unternehmen erlaubt, seine eigenen konkurrierenden Modelle ohne Einschränkung weiterzuentwickeln.

“The greater predictability in the amended agreement strengthens our joint ability to build and operate AI platforms at scale while providing both companies the flexibility to pursue new opportunities.”

🇩🇪 Die erhöhte Vorhersehbarkeit des angepassten Abkommens stärkt unsere gemeinsame Fähigkeit, KI-Plattformen in großem Maßstab aufzubauen und zu betreiben, und gibt beiden Unternehmen zugleich die Flexibilität, neue Chancen zu nutzen.OpenAI


GitHub Copilot — nutzungsbasierte Abrechnung über GitHub AI Credits ab dem 1. Juni

27. April — GitHub kündigt an, dass alle Copilot-Pläne ab dem 1. Juni 2026 auf ein nutzungsbasiertes Abrechnungsmodell (usage-based billing) umgestellt werden. Das Konzept der “premium request units” (PRUs) entfällt zugunsten der GitHub AI Credits, die entsprechend der tatsächlichen Nutzung von Tokens (Eingabe, Ausgabe, Cache) nach einem modellspezifischen Tarif verbraucht werden.

Starting June 1st, GitHub Copilot will move to a usage-based billing model as GitHub Copilot supports more agentic and advanced workflows.

🇩🇪 Ab dem 1. Juni wird GitHub Copilot auf ein nutzungsbasiertes Abrechnungsmodell umgestellt, da GitHub Copilot immer mehr agentische und fortgeschrittene Workflows unterstützt.@github auf X

Die Preise der Pläne bleiben unverändert — neu ist, dass die enthaltenen Credits nun dem monatlichen Preis des jeweiligen Plans entsprechen:

PlanMonatspreisEnthaltene AI CreditsÜbergangsbonus
Copilot Pro$10/Monat$10 in Credits
Copilot Pro+$39/Monat$39 in Credits
Copilot Business$19/Nutzer/Monat$19 in Credits$30/Monat zusätzlich (Übergang)
Copilot Enterprise$39/Nutzer/Monat$39 in Credits$70/Monat zusätzlich (Übergang)

Wichtige Punkte für Teams:

  • Code-Vervollständigungen und Next-Edit-Vorschläge bleiben enthalten, ohne Credits zu verbrauchen
  • Der Fallback-Mechanismus auf günstigere Modelle (wenn die PRUs erschöpft waren) entfällt — sobald die Credits verbraucht sind, stoppt die Nutzung abrupt
  • Copilot Code Review verbraucht zusätzlich zu den AI Credits GitHub Actions-Minuten
  • Die Credits werden auf Organisationsebene gepoolt — keine verlorenen Credits mehr durch ungenutzte Plätze
  • Eine Preview-Rechnung wird im Mai verfügbar sein, um die tatsächlichen Kosten vor der Umstellung zu schätzen
  • Admins erhalten neue Budgetkontrollen (Enterprise, Kostenstelle, Team, Nutzer)

🔗 Ankündigung bei blog.github.com


OpenAI Symphony — Open-Source-Spezifikation für die Orchestrierung von Codex

27. April — Das Engineering-Team von OpenAI veröffentlicht Symphony, eine Open-Source-Spezifikation zur Orchestrierung mehrerer Codex-Sitzungen parallel. Das Projekt entstand aus einer radikalen internen Vorgabe: ein ganzes Repository ohne eine einzige Zeile menschlichen Codes zu bauen, wobei jeder Beitrag von Codex generiert werden musste.

Symphony löst den Engpass, der in diesem Experiment schnell sichtbar wurde: das Wechseln des Kontexts (context switching) zwischen unabhängigen Codex-Sitzungen nahm zu viel menschliche Aufsicht in Anspruch. Die Lösung orchestriert automatisch mehrere Agenten auf parallelen Aufgaben, lässt sie dauerhaft auf devboxes laufen und ermöglicht es, Tickets von jedem Gerät aus einzureichen — Smartphone, schlechte Verbindung — damit die Agenten sie ohne Eingriff bearbeiten.

MetrikWert
Steigerung der ausgelieferten PRs+500 % in 3 Wochen (einige OpenAI-Teams)
Externe AdoptionLinear meldete bei der Veröffentlichung einen Anstieg der Workspace-Erstellung

Die zentrale Erkenntnis des Teams: Wenn Ingenieure die Codex-Sitzungen nicht mehr aktiv überwachen müssen, sinken die wahrgenommenen Kosten jeder Codeänderung drastisch. Teams experimentieren mehr, prototypisieren freier und verwerfen leichter Ansätze ohne Mehrwert.

🔗 Ankündigung von OpenAI Engineering


Google DeepMind × Republik Korea — nationale wissenschaftliche Partnerschaft

27. April — Google DeepMind kündigt anlässlich des 10. Jahrestags des historischen AlphaGo-Matches in Seoul eine Partnerschaft mit dem koreanischen Ministerium für Wissenschaft und IKT (MSIT) an. Das Abkommen sieht mehrere konkrete Schwerpunkte vor:

BereichDetail
AI CampusAufbau eines KI-Campus in Seoul zur Unterstützung der koreanischen akademischen Forschung
Eingesetzte ToolsAlphaEvolve, AlphaGenome, AlphaFold, AI co-scientist, WeatherNext
Bestehende NutzungAlphaFold wird bereits von 85.000 koreanischen Forschern genutzt
Stipendien50.000 AI Essentials-Stipendien zur Talentförderung
KI-SicherheitZusammenarbeit mit dem koreanischen Institut für KI-Sicherheit (AISI)
NAISNationales KI-Zentrum für die Wissenschaft für Mai 2026 geplant

“Ten years ago, the historic AlphaGo match in Seoul captured the world’s imagination and showcased the profound potential of artificial intelligence. Together with the Korean government, we’re now looking at how this technology can help accelerate scientific discovery and create new opportunities for economic growth across the region.”

🇩🇪 Vor zehn Jahren hat das historische AlphaGo-Match in Seoul die Fantasie der ganzen Welt beflügelt und das tiefgreifende Potenzial künstlicher Intelligenz sichtbar gemacht. Gemeinsam mit der koreanischen Regierung prüfen wir nun, wie diese Technologie dazu beitragen kann, wissenschaftliche Entdeckungen zu beschleunigen und neue Chancen für wirtschaftliches Wachstum in der Region zu schaffen.Google DeepMind

🔗 Tweet @GoogleDeepMind


OpenAI “Our Principles” — fünf Prinzipien für das AGI-Zeitalter

26. April — Sam Altman veröffentlicht “Our Principles”, ein Dokument, das OpenAIs Sicht auf die Rolle der KI in der Gesellschaft darlegt. Die zentrale These: KI kann die Gesellschaft in einem größeren Ausmaß verändern als die Dampfmaschine oder Elektrizität, und die grundlegende Frage ist, ob die Macht aus AGI in wenigen Unternehmen konzentriert oder breit verteilt sein wird.

Prinzip (EN)FR-Übersetzung
DemocratizationDemokratisierung
EmpowermentErmächtigung (Empowerment)
Universal ProsperityUniverseller Wohlstand
ResilienceResilienz
AdaptabilityAnpassungsfähigkeit

🔗 Our Principles — OpenAI


Kimi K2.6 — Erster im wöchentlichen OpenRouter-Ranking

27. April — Kimi K2.6 erreicht den ersten Platz im wöchentlichen Ranking (weekly leaderboard) der Sprachmodelle auf OpenRouter, das die Anfragen Tausender Entwickler aggregiert, um ein Maß für die tatsächliche Nutzung zu erstellen. Diese Position spiegelt eine bedeutende Entwickleradoption wider, insbesondere in den Bereichen Agenten und lange Kontextfenster, wo K2.6 sich mit seinen 300 parallelen Sub-Agenten hervorgetan hatte (angekündigt am 23. April).

🔗 Tweet @Kimi_Moonshot


Kurzmeldungen

  • Z.ai — Verlängerung der “Triple-Usage”-Periode für GLM-5.1 und GLM-5-Turbo — Z.ai verlängert bis zum 30. Juni 2026 das Angebot, das Abonnenten des GLM Coding Plan ermöglicht, dasselbe Anfragevolumen wie bei GLM-5-Plus zu einem niedrigeren Preis zu nutzen. 🔗 Quelle
  • Genspark × Anthropic — erster Hackathon in Singapur — Mehr als 40 Projekte, $18.000 in API-Credits, mit Temasek und Devfolio als Partnern. Die Teams bauten Tools, um Geschäftsgespräche zu automatisieren, Visitenkarten zu ersetzen und das kollektive Wissen von Teams zu nutzen. 🔗 Quelle
  • Google & Kaggle — GenAI Intensive Vibe Coding Course (15.–19. Juni 2026) — Rückkehr des kostenlosen 5-Tage-Kurses, diesmal mit Fokus auf “vibe coding” (Programmierung in natürlicher Sprache). Die erste Ausgabe hatte im November 2025 1,5 Millionen Lernende erreicht. 🔗 Quelle
  • Midjourney — High-Resolution-Ranking 2K für v8.1/8.2 — Erste Community-Rating-Session in voller 2K-Auflösung, um die native hochauflösende Ästhetik der kommenden Versionen v8.1 und v8.2 zu verfeinern. 🔗 Quelle

Was das bedeutet

Der 27. April zeigt eine Neuordnung der Allianzen und Geschäftsmodelle der KI. Das angepasste OpenAI × Microsoft-Abkommen signalisiert, dass große KI-Plattformen sich zunehmend von exklusiven Cloud-Abhängigkeiten lösen wollen — eine Entwicklung, von der AWS, Google Cloud und Oracle ebenso profitieren wie OpenAI. Für Entwickler ist das deutlichste Signal die Umstellung von GitHub Copilot auf AI Credits: Das Ende des Modell-Fallbacks bedeutet, dass eine lange agentische Sitzung das Monatsbudget aufbrauchen kann, und Teams müssen ihre Nutzung vor dem 1. Juni genau kalibrieren. OpenAIs Symphony geht in dieselbe Richtung: Die parallele Orchestrierung von Agenten wird zu einer eigenständigen Engineering-Praxis, mit messbaren Ergebnissen (+500 % ausgelieferte PRs), die Investitionen in die Infrastruktur rund um Codex rechtfertigen. Auf geopolitischer Ebene bestätigt die DeepMind × Korea-Partnerschaft den Trend, dass große Labore nationale Vereinbarungen schließen, um ihre akademische und politische Präsenz in wichtigen regionalen Ökosystemen zu verankern.


Quellen

Dieses Dokument wurde von der Version fr in die Sprache de unter Verwendung des Modells gpt-5.4-mini übersetzt. Weitere Informationen zum Übersetzungsprozess finden Sie unter https://gitlab.com/jls42/ai-powered-markdown-translator