Rechercher

Microsoft × OpenAI accord amendé, GitHub passe à la facturation usage-based, DeepMind en Corée

Microsoft × OpenAI accord amendé, GitHub passe à la facturation usage-based, DeepMind en Corée

Le 27 avril 2026 marque une journée dense en annonces structurantes : OpenAI et Microsoft révisent leur accord de partenariat pour donner à OpenAI plus de flexibilité multi-cloud tout en maintenant Azure comme cloud principal, GitHub révèle la fin des “premium request units” au profit d’un nouveau système de crédits facturés à l’usage, et Google DeepMind formalise un partenariat scientifique majeur avec la République de Corée. Symphony, la spécification open source d’OpenAI pour l’orchestration de Codex, complète une journée qui redessine les contours de l’infrastructure IA.


OpenAI × Microsoft — accord amendé jusqu’en 2032

27 avril — OpenAI et Microsoft annoncent un accord amendé qui simplifie et réorganise leur partenariat sur le long terme. Jusqu’ici, la structure contractuelle liait étroitement OpenAI à Azure avec une licence exclusive et un mécanisme de partage de revenus (revenue share) dans les deux sens. Le nouvel accord modifie les règles du jeu.

AspectAvantAprès (accord amendé)
Cloud principalAzure exclusifAzure reste prioritaire, mais OpenAI peut servir d’autres clouds
Licence MicrosoftExclusiveNon-exclusive jusqu’en 2032
Revenue share Microsoft → OpenAIOuiSupprimé
Revenue share OpenAI → MicrosoftOuiMaintenu jusqu’en 2030, même pourcentage mais plafonné
Actionnariat MicrosoftInchangé (actionnaire majeur)

Le changement central est la liberté multi-cloud : OpenAI peut désormais signer des accords avec d’autres fournisseurs d’infrastructure sans violer ses engagements envers Microsoft. Pour Microsoft, la suppression du revenue share entrant (MS → OAI) simplifie la comptabilité, tandis que la licence non-exclusive lui laisse la possibilité de développer ses propres modèles concurrents sans restriction.

“The greater predictability in the amended agreement strengthens our joint ability to build and operate AI platforms at scale while providing both companies the flexibility to pursue new opportunities.”

🇫🇷 La prévisibilité accrue de l’accord amendé renforce notre capacité commune à construire et opérer des plateformes d’IA à grande échelle, tout en donnant aux deux entreprises la flexibilité de saisir de nouvelles opportunités.OpenAI


GitHub Copilot — facturation à l’usage via GitHub AI Credits dès le 1er juin

27 avril — GitHub annonce que tous les plans Copilot basculeront vers un modèle de facturation à l’usage (usage-based billing) à partir du 1er juin 2026. La notion de “premium request units” (PRUs) disparaît au profit des GitHub AI Credits, consommés en fonction de l’usage réel de tokens (entrée, sortie, cache) selon un barème par modèle.

Starting June 1st, GitHub Copilot will move to a usage-based billing model as GitHub Copilot supports more agentic and advanced workflows.

🇫🇷 À partir du 1er juin, GitHub Copilot passera à un modèle de facturation à l’usage, à mesure que Copilot prend en charge des workflows agentiques et avancés.@github sur X

Les prix des plans restent identiques — la nouveauté est que les crédits inclus sont désormais équivalents au prix mensuel du plan :

PlanPrix mensuelAI Credits inclusBonus de transition
Copilot Pro$10/mois$10 en crédits
Copilot Pro+$39/mois$39 en crédits
Copilot Business$19/user/mois$19 en crédits$30/mois supplémentaires (transition)
Copilot Enterprise$39/user/mois$39 en crédits$70/mois supplémentaires (transition)

Points clés pour les équipes :

  • Les complétions de code et suggestions Next Edit restent inclus sans consommer de crédits
  • Le mécanisme de fallback vers des modèles moins chers (quand les PRUs étaient épuisés) disparaît — quand les crédits sont consommés, l’usage s’arrête net
  • Copilot code review consommera des GitHub Actions minutes en plus des AI Credits
  • Les crédits sont poolés au niveau organisation — fin des crédits perdus par siège inutilisé
  • Une preview bill sera disponible en mai pour estimer les coûts réels avant le basculement
  • Les admins disposeront de nouveaux contrôles budgétaires (enterprise, cost center, équipe, utilisateur)

🔗 Annonce blog.github.com


OpenAI Symphony — spécification open source pour l’orchestration de Codex

27 avril — L’équipe ingénierie d’OpenAI publie Symphony, une spécification open source pour orchestrer plusieurs sessions Codex en parallèle. Le projet est né d’une contrainte interne radicale : construire un dépôt entier sans une seule ligne de code humain, chaque contribution devant être générée par Codex.

Symphony résout le goulot d’étranglement apparu rapidement dans cet exercice : le changement de contexte (context switching) entre sessions Codex indépendantes prenait trop de temps de supervision humaine. La solution orchestre automatiquement plusieurs agents sur des tâches parallèles, les fait tourner sur des devboxes en continu, et permet de soumettre des tickets depuis n’importe quel appareil — téléphone, mauvaise connexion — pour que les agents les traitent sans intervention.

MétriqueValeur
Augmentation des PRs livrées+500 % en 3 semaines (certaines équipes OpenAI)
Adoption externeLinear a signalé un pic de création de workspaces lors de la sortie

L’insight central de l’équipe : quand les ingénieurs n’ont plus à superviser activement les sessions Codex, le coût perçu de chaque modification de code s’effondre. Les équipes explorent davantage, prototypent plus librement et abandonnent plus facilement les pistes sans valeur ajoutée.

🔗 Annonce OpenAI Engineering


Google DeepMind × République de Corée — partenariat scientifique national

27 avril — Google DeepMind annonce un partenariat avec le ministère des Sciences et des TIC de Corée (MSIT), à l’occasion du 10e anniversaire du match historique AlphaGo à Séoul. L’accord prévoit plusieurs axes concrets :

VoletDétail
AI CampusCréation d’un campus IA à Séoul pour soutenir la recherche académique coréenne
Outils déployésAlphaEvolve, AlphaGenome, AlphaFold, AI co-scientist, WeatherNext
Adoption existanteAlphaFold déjà utilisé par 85 000 chercheurs coréens
Bourses50 000 bourses AI Essentials pour le développement des talents
Sécurité IACollaboration avec l’Institut coréen de sécurité IA (AISI)
NAISCentre national IA pour la science prévu pour mai 2026

“Ten years ago, the historic AlphaGo match in Seoul captured the world’s imagination and showcased the profound potential of artificial intelligence. Together with the Korean government, we’re now looking at how this technology can help accelerate scientific discovery and create new opportunities for economic growth across the region.”

🇫🇷 Il y a dix ans, le match historique d’AlphaGo à Séoul a captivé l’imagination du monde entier et mis en lumière le potentiel profond de l’intelligence artificielle. Avec le gouvernement coréen, nous examinons désormais comment cette technologie peut contribuer à accélérer la découverte scientifique et créer de nouvelles opportunités de croissance économique dans la région.Google DeepMind

🔗 Tweet @GoogleDeepMind


OpenAI “Our Principles” — cinq principes pour l’ère AGI

26 avril — Sam Altman publie “Our Principles”, un document qui articule la vision d’OpenAI sur le rôle de l’IA dans la société. La thèse centrale : l’IA peut transformer la société à une échelle supérieure à celle de la machine à vapeur ou de l’électricité, et la question fondamentale est de savoir si le pouvoir issu de l’AGI sera concentré dans quelques entreprises ou distribué largement.

Principe (EN)Traduction FR
DemocratizationDémocratisation
EmpowermentResponsabilisation (Empowerment)
Universal ProsperityProspérité universelle
ResilienceRésilience
AdaptabilityAdaptabilité

🔗 Our Principles — OpenAI


Kimi K2.6 — premier du classement hebdomadaire OpenRouter

27 avril — Kimi K2.6 se hisse à la première place du classement hebdomadaire (weekly leaderboard) des modèles de langage sur OpenRouter, qui agrège les requêtes de milliers de développeurs pour établir une mesure d’usage réel. Cette position reflète une adoption développeur significative, notamment dans les domaines agent et longue fenêtre de contexte où K2.6 s’était distingué avec ses 300 sous-agents parallèles (annoncé le 23 avril).

🔗 Tweet @Kimi_Moonshot


Brèves

  • Z.ai — extension de la période “triple usage” GLM-5.1 et GLM-5-Turbo — Z.ai prolonge jusqu’au 30 juin 2026 l’offre qui permet aux abonnés GLM Coding Plan de bénéficier du même volume de requêtes que GLM-5-Plus à un tarif inférieur. 🔗 source
  • Genspark × Anthropic — premier hackathon à Singapour — 40+ projets, $18 000 en crédits API, partenaires Temasek et Devfolio. Les équipes ont construit des outils pour automatiser des conversations commerciales, remplacer les cartes de visite et capitaliser sur la connaissance collective des équipes. 🔗 source
  • Google & Kaggle — GenAI Intensive Vibe Coding Course (15-19 juin 2026) — Retour du cours gratuit en 5 jours, cette fois avec un focus “vibe coding” (programmation par langage naturel). La première édition avait réuni 1,5 million d’apprenants en novembre 2025. 🔗 source
  • Midjourney — classement haute résolution 2K pour v8.1/8.2 — Première session de classement communautaire à pleine résolution 2K pour affiner l’esthétique native haute définition des versions v8.1 et v8.2 à venir. 🔗 source

Ce que ça signifie

La journée du 27 avril illustre une recomposition des alliances et des modèles économiques de l’IA. L’accord amendé OpenAI × Microsoft signale que les grandes plateformes IA cherchent désormais à s’affranchir des dépendances cloud exclusives — un mouvement qui profite à AWS, Google Cloud et Oracle autant qu’à OpenAI. Pour les développeurs, le signal le plus concret est la bascule GitHub Copilot vers les AI Credits : la fin du fallback modèle signifie qu’une session agentique longue peut épuiser le budget mensuel, et les équipes devront calibrer leurs usages avant le 1er juin. Symphony d’OpenAI pousse dans la même direction : l’orchestration parallèle d’agents devient une pratique d’ingénierie à part entière, avec des résultats mesurables (+500 % de PRs livrées) qui justifient d’investir dans l’infrastructure autour de Codex. Côté géopolitique, le partenariat DeepMind × Corée confirme la tendance des grands labs à nouer des accords nationaux pour ancrer leur présence académique et politique dans des écosystèmes régionaux clés.


Sources