Le 20 avril 2026 concentre plusieurs annonces structurantes : Anthropic et Amazon élargissent leur partenariat autour de 5 GW de capacité de calcul et un investissement de $5B, GitHub suspend les nouvelles inscriptions aux plans Copilot individuels tout en resserrant les limites d’usage, et deux nouveaux modèles tirent vers le haut les benchmarks de coding — Kimi K2.6 en open-source et Qwen3.6-Max-Preview en propriétaire. OpenAI lance par ailleurs Codex Chronicle, une mémoire contextuelle basée sur des captures d’écran.
Anthropic et Amazon — 5 GW de compute, $5B investissement
20 avril — Anthropic et Amazon ont signé un nouvel accord d’infrastructure qui sécurise jusqu’à 5 gigawatts (GW) de capacité de calcul pour l’entraînement et le déploiement de Claude. Une capacité significative de Trainium2 arrive dès le deuxième trimestre 2026, avec près d’1 GW total de Trainium2 et Trainium3 attendu d’ici fin 2026.
L’accord s’articule en trois volets :
| Volet | Détail |
|---|---|
| Infrastructure | Engagement de plus de 100 milliards USD sur 10 ans vers AWS, couvrant Graviton et Trainium2 jusqu’au Trainium4 |
| Claude Platform sur AWS | La Claude Platform complète intégrée directement dans AWS — même compte, même facturation, sans contrats séparés |
| Investissement | Amazon investit $5 milliards USD dans Anthropic aujourd’hui, avec jusqu’à $20 milliards USD supplémentaires à l’avenir |
Anthropic révèle que son chiffre d’affaires annualisé dépasse désormais 30 milliards USD, contre environ 9 milliards fin 2025. Cette croissance rapide a mis sous pression l’infrastructure existante, affectant la fiabilité pour les utilisateurs gratuits, Pro, Max et Team aux heures de pointe.
Plus de 100 000 clients font déjà tourner Claude sur Amazon Bedrock, et Anthropic utilise plus d’un million de puces Trainium2. La Claude Platform complète est désormais accessible directement depuis le compte AWS sans nécessiter de contrats séparés — un changement concret pour les développeurs et entreprises déjà sur AWS.
Claude reste par ailleurs le seul modèle d’IA de pointe disponible sur les trois principales plateformes cloud mondiales : AWS (Bedrock), Google Cloud (Vertex AI) et Microsoft Azure (Foundry).
“Our users tell us Claude is increasingly essential to how they work, and we need to build the infrastructure to keep pace with rapidly growing demand.”
🇫🇷 « Nos utilisateurs nous disent que Claude est de plus en plus essentiel à leur façon de travailler, et nous devons construire l’infrastructure pour suivre une demande en forte croissance. » — Dario Amodei, via @AnthropicAI sur X
🔗 Annonce officielle Anthropic
GitHub Copilot — Suspension des inscriptions Pro/Pro+ et resserrement des limites
20 avril — GitHub publie des changements significatifs aux plans Copilot individuels. Les nouvelles inscriptions aux plans Pro, Pro+ et Student sont suspendues immédiatement. Le plan Copilot Free reste quant à lui ouvert.
Les changements en détail :
| Changement | Détail |
|---|---|
| Pause inscriptions | Pro, Pro+, Student — fermés aux nouveaux utilisateurs. Copilot Free reste ouvert |
| Limites d’usage | Pro+ offre 5× les limites de Pro. Avertissements dans VS Code et Copilot CLI à l’approche de la limite |
| Modèles Opus | Opus retiré de Copilot Pro. Opus 4.7 reste disponible sur Pro+ uniquement. Opus 4.5 et 4.6 seront aussi retirés de Pro+ ultérieurement |
| Remboursement | Possibilité d’annuler et d’être remboursé pour avril en contactant le support entre le 20 avril et le 20 mai 2026 |
Pour les utilisateurs déjà abonnés, les plans existants restent actifs. L’impact concret : les utilisateurs Pro qui avaient accès aux modèles Opus perdent cet accès, tandis que Pro+ devient de facto le tier intermédiaire avec 5× plus de quota. La fenêtre de remboursement jusqu’au 20 mai laisse un mois pour décider.
🔗 GitHub Changelog — Changements plans individuels
Kimi K2.6 — SOTA open-source en coding et agents
20 avril — Moonshot AI lance Kimi K2.6, nouveau modèle open-source qui établit plusieurs records (state of the art) sur les benchmarks de coding et d’agents. L’annonce a généré plus de 1,5 million de vues en quelques heures.
Benchmarks open-source :
| Benchmark | Score K2.6 |
|---|---|
| SWE-Bench Pro | 58,6 |
| SWE-bench Multilingual | 76,7 |
| HLE with tools | 54,0 |
| BrowseComp | 83,2 |
| Toolathlon | 50,0 |
| Charxiv w/ python | 86,7 |
| Math Vision w/ python | 93,2 |
Les améliorations par rapport à K2.5 sont substantielles. Sur le coding longue durée (long-horizon coding), K2.6 enchaîne jusqu’à 4 000 appels d’outils en une session et peut tourner plus de 12 heures en continu, avec une généralisation multi-langages (Rust, Go, Python) et multi-tâches (frontend, DevOps, optimisation de performances).
L’architecture multi-agents a aussi progressé : 300 sous-agents parallèles × 4 000 étapes par exécution, contre 100 sous-agents × 1 500 étapes pour K2.5. K2.6 prend en charge nativement les interfaces frontend avancées — vidéos dans les sections hero, shaders WebGL, animations GSAP + Framer Motion, rendus Three.js 3D.
Les poids sont disponibles en open-source sur HuggingFace. L’API est accessible sur platform.moonshot.ai, et le modèle tourne en mode chat et en mode agent sur kimi.com.
🔗 Annonce Kimi K2.6 sur X — 🔗 Blog Kimi K2.6 — 🔗 Poids sur HuggingFace
Qwen3.6-Max-Preview — Avant-première du prochain modèle phare
20 avril — Alibaba Qwen lance Qwen3.6-Max-Preview, une avant-première de son prochain modèle propriétaire phare, successeur de Qwen3.6-Plus.
Gains sur les benchmarks par rapport à Qwen3.6-Plus :
| Benchmark | Gain |
|---|---|
| SkillsBench | +9,9 |
| SciCode | +6,3 |
| NL2Repo | +5,0 |
| Terminal-Bench 2.0 | +3,8 |
| QwenChineseBench | +5,3 |
| SuperGPQA | +2,3 |
| ToolcallFormatIFBench | +2,8 |
Le modèle se positionne en tête sur 6 benchmarks de coding majeurs : SWE-bench Pro, Terminal-Bench 2.0, SkillsBench, QwenClawBench, QwenWebBench et SciCode. Il est disponible dès aujourd’hui en accès anticipé via chat.qwen.ai et via l’API Alibaba Cloud Model Studio sous l’identifiant qwen3.6-max-preview. Il est compatible avec les specs OpenAI et Anthropic, et supporte le mode preserve_thinking pour les tâches agentiques.
Il s’agit d’une version encore en développement actif — des itérations supplémentaires sont annoncées avant la sortie finale.
🔗 Annonce Qwen sur X — 🔗 Blog Qwen3.6-Max-Preview
Codex Chronicle (Research Preview) — Mémoire contextuelle par captures d’écran
20 avril — OpenAI lance Codex Chronicle en Research Preview, une nouvelle fonctionnalité de mémoire contextuelle pour Codex. Chronicle fait tourner des agents en arrière-plan pour construire des mémoires à partir de captures d’écran récentes, permettant à Codex de reprendre une session de travail sans que l’utilisateur ait à remettre le contexte à jour manuellement.
Fonctionnement : les agents capturent l’écran périodiquement, extraient le contexte de travail, et stockent des mémoires localement sur l’appareil. L’utilisateur peut inspecter et modifier ces mémoires. OpenAI avertit que d’autres applications peuvent potentiellement accéder aux fichiers de captures.
Disponibilité limitée au lancement : réservé aux utilisateurs Pro sur macOS, exclu des pays EU, Royaume-Uni et Suisse pendant la phase d’apprentissage.
🔗 Annonce Codex Chronicle sur X
Grok — Extensions vidéo cohérentes
20 avril — Grok Imagine annonce des extensions vidéo améliorées (Smarter Video Extensions). Grok voit désormais le prompt original et le clip source pour générer des extensions cohérentes en contenu et en audio. La continuité audio est maintenue sur toute la durée de l’extension. Disponible dans l’app Grok et sur le web.
NotebookLM — Couvertures personnalisées pour les notebooks
16 avril — NotebookLM permet désormais d’ajouter une illustration de couverture personnalisée et une description à n’importe quel notebook. La fonctionnalité vise à personnaliser l’affichage en grille avant de partager un notebook. Format recommandé : image 16:9.
En bref
TeenAegis AI Danger Index (18 avr.) — Dans son premier indice de dangerosité des IA (AI Danger Index), TeenAegis a attribué à OpenAI le score de risque le plus bas parmi les fournisseurs évalués. L’indice évalue la protection des jeunes utilisateurs : contrôles adaptés à l’âge, surveillance, signalement et mesures de protection. 🔗 Tweet OpenAI Newsroom
OpenAI Academy — 3M+ utilisateurs (19 avr.) — La plateforme de formation à l’IA d’OpenAI dépasse les 3 millions d’utilisateurs, avec des événements en présentiel organisés cette semaine de Varsovie à Abilene (Texas) en passant par Cal State Bakersfield. 🔗 Tweet OpenAI Newsroom
Ce que ça signifie
L’accord Anthropic-Amazon est structurant à plusieurs titres : il formalise une dépendance réciproque (Anthropic a besoin du compute, Amazon a besoin de Claude pour rendre Bedrock compétitif), et la facturation unifiée AWS supprime une friction réelle pour les équipes déjà dans l’écosystème Amazon. Le chiffre de run-rate à $30B annualisé, multiplié par plus de 3 en quelques mois, explique pourquoi l’infrastructure est sous pression et pourquoi cet accord était urgent.
Du côté des modèles, la journée du 20 avril illustre une dynamique de compression rapide des écarts : Kimi K2.6 en open-source atteint des scores comparables à des modèles propriétaires sortis il y a quelques semaines à peine, et Qwen3.6-Max-Preview positionne Alibaba en tête sur les benchmarks coding avant même la version finale. La restructuration des plans Copilot chez GitHub signale une tension entre adoption large (Free) et monétisation durable (Pro+), avec une expérience utilisateur qui se fragmente selon les tiers.
Sources
- Annonce officielle Anthropic + Amazon
- @AnthropicAI sur X — tweet principal
- @AnthropicAI sur X — détails $5B/$20B
- GitHub Changelog — Changements plans Copilot individuels
- @Kimi_Moonshot sur X — Kimi K2.6
- Blog Kimi K2.6
- Kimi K2.6 sur HuggingFace
- @Alibaba_Qwen sur X — Qwen3.6-Max-Preview
- Blog Qwen3.6-Max-Preview
- @OpenAIDevs sur X — Codex Chronicle
- @grok sur X — Smarter Video Extensions
- @NotebookLM sur X — Couvertures personnalisées
- @OpenAINewsroom — TeenAegis AI Danger Index
- @OpenAINewsroom — OpenAI Academy 3M+