Rechercher

DeepSeek-V4 et GPT-5.5 envahissent les IDE, Cohere fusionne avec Aleph Alpha, Claude Code v2.1.119

DeepSeek-V4 et GPT-5.5 envahissent les IDE, Cohere fusionne avec Aleph Alpha, Claude Code v2.1.119

Le 25 avril 2026 concentre des annonces majeures sur les modèles de frontière et les outils développeurs. DeepSeek-V4 est lancé open-source et disponible gratuitement sur NVIDIA Blackwell. GPT-5.5 entre en disponibilité générale dans GitHub Copilot et l’API OpenAI. La fusion Cohere + Aleph Alpha, soutenue par 600 millions de dollars de Schwarz Group, repose les bases de l’IA souveraine transatlantique. Du côté des outils, Claude Code v2.1.119 et le mode Auto-review de Codex étendent l’autonomie des agents de développement.


DeepSeek-V4 disponible partout

Lancement et open-source

24 avril — DeepSeek annonce simultanément DeepSeek-V4-Pro et DeepSeek-V4-Flash. V4-Pro est un modèle mixture-of-experts de 1,6 trillion de paramètres (49 milliards actifs), avec une fenêtre de contexte d’un million de tokens et des performances annoncées comparables aux meilleurs modèles fermés. V4-Flash, plus compact (284B/13B actifs), cible les cas d’usage à faible latence. Les deux modèles sont open-source dès le premier jour, avec API et démo disponibles immédiatement, et le rapport technique publié sur Hugging Face.

🔗 Annonce DeepSeek-V4

Promotion API et intégrations

25 avril — DeepSeek annonce une promotion de -75 % sur l’API V4-Pro jusqu’au 5 mai 2026 (15h59 UTC). Les intégrations Claude Code, OpenCode et OpenClaw ont été mises à jour pour supporter le nouveau modèle.

🔗 Promotion API DeepSeek-V4-Pro

DeepSeek-V4-Pro sur NVIDIA Blackwell, gratuitement

24 avril — NVIDIA rend DeepSeek-V4-Pro accessible gratuitement via l’interface NVIDIA NIM API sur Blackwell, sur build.nvidia.com. L’annonce a généré 160 000 vues. NVIDIA publie également les premières courbes de performance (Pareto frontier) de DeepSeek-V4-Pro sur Blackwell Ultra avec vLLM — un point de référence précoce pour les déploiements haute performance.

25 avril — NVIDIA souligne en parallèle les limites de l’inférence classique pour les agents de développement : “Traditional inference wasn’t built for agentic coding”, en référence aux centaines d’appels API que génèrent les outils agentiques modernes.

🔗 DeepSeek-V4-Pro sur NVIDIA NIM 🔗 Blackwell Ultra Day 0


GPT-5.5 sort de l’avant-première

Disponibilité générale dans GitHub Copilot

24 avril — GPT-5.5 est déployé progressivement dans GitHub Copilot pour les plans Pro+, Business et Enterprise. La disponibilité couvre VS Code, Visual Studio, la CLI Copilot, l’agent cloud, github.com, l’application mobile (iOS et Android), les IDE JetBrains, Xcode et Eclipse. Le multiplicateur promotionnel est fixé à 7,5×. Les administrateurs Enterprise et Business doivent activer la politique dans les paramètres pour en bénéficier.

🔗 Changelog GitHub Copilot — GPT-5.5 GA

Accès API développeurs

24 avril — Le lendemain du lancement grand public, OpenAI ouvre l’accès à GPT-5.5 dans l’API. Le modèle est disponible via l’API Responses et l’API Chat Completions, avec une fenêtre de contexte d’un million de tokens. La variante GPT-5.5-Pro, pour les travaux à haute précision, est accessible uniquement via l’API Responses.

“GPT-5.5 is available in the Responses and Chat Completions APIs with a 1M context window. GPT-5.5-pro is also available in the Responses API for higher-accuracy work.”

🇫🇷 “GPT-5.5 est disponible dans les API Responses et Chat Completions avec une fenêtre de contexte d’un million de tokens. GPT-5.5-Pro est également disponible dans l’API Responses pour les travaux à haute précision.”@OpenAIDevs

🔗 Annonce OpenAI API

GPT-5.5 sur Perplexity Max et Personal Computer

24 avril — GPT-5.5 est accessible aux abonnés Max sur Perplexity et déployé comme modèle d’orchestration par défaut dans Personal Computer pour les plans Pro et Max.

🔗 Annonce Perplexity

Bio Bug Bounty — programme de sécurité biosécurité

23 avril — OpenAI ouvre un programme de prime aux bugs dédié à la biosécurité de GPT-5.5. Des chercheurs spécialisés en sécurité IA ou biosécurité sont invités à trouver un jailbreak universel contournant les garde-fous biologiques du modèle. La récompense principale est de 25 000 USD pour le premier succès. Les candidatures sont ouvertes jusqu’au 22 juin 2026 ; les tests se dérouleront du 28 avril au 27 juillet 2026, exclusivement sur GPT-5.5 dans Codex Desktop, sur invitation avec accord de confidentialité.

🔗 GPT-5.5 Bio Bug Bounty


Outils développeurs : autonomie en extension

Claude Code v2.1.119

25 avril — Anthropic publie Claude Code v2.1.119, une mise à jour substantielle du CLI avec plus de quarante changements.

DomaineChangement
Config/config persistant dans ~/.claude/settings.json
PR--from-pr supporte GitLab, Bitbucket, GitHub Enterprise
HooksPostToolUse + champ duration_ms
PowerShellAuto-approbation en mode permission
MCPConnexion serveurs subagent en parallèle
Bugs corrigés40+

La persistance des paramètres /config est le changement le plus visible : les préférences de thème, mode éditeur ou niveau verbose survivent aux redémarrages. Le paramètre --from-pr accepte désormais les URLs GitLab merge-request, Bitbucket pull-request et GitHub Enterprise, ce qui étend le workflow aux équipes qui n’utilisent pas GitHub.com. Les hooks PostToolUse et PostToolUseFailure reçoivent maintenant le champ duration_ms, utile pour le monitoring en CI/CD. La connexion des serveurs MCP se fait maintenant en parallèle, réduisant les temps de démarrage des workflows multi-serveurs.

🔗 CHANGELOG Claude Code

Codex Auto-review — autonomie prolongée avec filet de sécurité

24 avril — OpenAI annonce Auto-review, un nouveau mode d’exécution pour Codex. Ce mode permet à Codex de progresser sur des tâches longues sans demander d’approbation à chaque étape. Un agent distinct évalue les étapes à risque élevé avant leur exécution, ce qui permet de fluidifier les workflows de tests, compilations et automations longues sans sacrifier la sécurité.

🔗 Codex Auto-review

Copilot pour JetBrains : Inline Agent Mode en préversion

24 avril — La mise à jour du plugin Copilot pour JetBrains IDE apporte plusieurs fonctionnalités : le mode agent inline en préversion publique (raccourci Shift+Ctrl+I ou Shift+Cmd+I), les Next Edit Suggestions (NES) améliorées avec aperçus en filigrane et modifications distantes, et l’auto-approbation globale pour les appels d’outils agent.

🔗 Changelog JetBrains Copilot

NVIDIA Dynamo — l’inférence repensée pour les agents

25 avril — NVIDIA présente Dynamo, une refonte de la stack d’inférence pour répondre aux profils de charge des outils agentiques. Les agents comme Claude Code, Codex ou Copilot enchaînent des centaines d’appels API par session avec du contexte recomposé à chaque étape, créant des goulots qui font monter le coût par token. Dynamo combine quatre composants : routing sensible au cache KV, scheduling pensé pour les agents, mise en cache multi-niveaux et orchestration unifiée. NVIDIA annonce jusqu’à 7× de débit supplémentaire avec des taux de cache plus élevés et une latence réduite.

🔗 NVIDIA Dynamo — inférence agentique


Souveraineté et partenariats enterprise

Cohere + Aleph Alpha : fusion transatlantique avec 600 millions USD de Schwarz Group

24 avril — Cohere (Canada) et Aleph Alpha (Allemagne) annoncent leur projet de fusion. Schwarz Group — le groupe propriétaire de Lidl et Kaufland — investit 600 millions USD (environ 500 millions d’euros) en financement structuré pour la Series E de Cohere. La plateforme combinée sera hébergée sur STACKIT, le cloud souverain de Schwarz Digits.

“Sovereign AI for the world. Cohere & Aleph Alpha form transatlantic AI powerhouse anchored in Canada & Germany!”

🇫🇷 “L’IA souveraine pour le monde. Cohere et Aleph Alpha forment une puissance transatlantique de l’IA ancrée au Canada et en Allemagne !”@cohere sur X

L’accord cible les secteurs régulés, les gouvernements et un marché de l’IA souveraine estimé à environ 600 milliards USD. Il reste conditionnel à l’approbation des actionnaires d’Aleph Alpha.

Anthropic et NEC : premier partenariat global japonais

24 avril — Anthropic annonce un partenariat stratégique avec NEC Corporation, qui devient le premier partenaire global japonais d’Anthropic. NEC déploiera Claude auprès d’environ 30 000 employés du groupe dans le monde.

AspectDétail
Employés concernés~30 000 (NEC Group mondial)
Produits déployésClaude, Claude Opus 4.7, Claude Code, Claude Cowork
Secteurs ciblesFinance, manufacturing, cybersécurité, gouvernement local
ProgrammeNEC BluStellar Scenario

En interne, NEC met en place un Centre d’excellence pour former une équipe d’ingénierie IA à grande échelle, dans le cadre de l’initiative “Client Zero”. Pour ses clients, NEC et Anthropic développeront conjointement des solutions pour les secteurs de la finance, du manufacturing et des collectivités locales japonaises.

🔗 Anthropic et NEC

Meta s’associe à AWS pour l’IA agentique à milliards d’utilisateurs

24 avril — Meta annonce un accord avec AWS pour intégrer des dizaines de millions de cœurs Graviton5 dans son infrastructure. L’objectif est de supporter les workloads CPU intensifs de l’IA agentique destinée à des milliards d’utilisateurs.

🔗 Meta × AWS Graviton5


Gemini : mises à jour produit et recherche

Gemini Drops avril 2026 — Lyria 3 Pro, Gemini Live v3.1

24 avril — Google publie la 10ème édition des Gemini Drops. Lyria 3 Pro permet de créer des morceaux musicaux jusqu’à 3 minutes directement dans Gemini, accessible aux abonnés Plus, Pro et Ultra. Gemini Live v3.1 est 20 % plus rapide et offre deux fois plus de contexte mémorisé. Personal Intelligence s’étend à l’international (hors Espace économique européen, Suisse, Royaume-Uni, Corée du Sud, Australie et Nigeria). La fonctionnalité de conversation à branches (branching) est déployée à 20 % des utilisateurs.

🔗 Gemini Drops avril 2026

Gemini Embedding 2 en disponibilité générale

22 avril — Gemini Embedding 2 passe en disponibilité générale (GA) dans l’API Gemini et Vertex AI. Le modèle de représentation vectorielle cible la recherche sémantique, la génération augmentée par récupération (RAG) et la classification.

🔗 Gemini Embedding 2 GA

Decoupled DiLoCo — entraînement distribué multi-régions

23 avril — Google DeepMind publie Decoupled DiLoCo, une méthode d’entraînement distribué sur réseaux à faible bande passante. Gemma 12B a été entraîné sur 4 régions américaines avec un mix de TPU6e et TPUv5p. La méthode ouvre la voie à un entraînement de modèles décentralisé à l’échelle mondiale, sans nécessiter les interconnexions haut débit habituellement requis.

🔗 Decoupled DiLoCo — Google DeepMind


Modèles alternatifs : Qwen et Grok

Qwen3.6-27B — modèle dense flagship pour le coding agentique

22 avril — Alibaba publie Qwen3.6-27B, un modèle dense de 27 milliards de paramètres en open source sous licence Apache 2.0. Malgré sa taille compacte, il surpasse Qwen3.5-397B-A17B — un modèle MoE de 397 milliards de paramètres dont 17 milliards activés — sur les principaux benchmarks de coding agentique, avec un score SWE-Bench Verified à 77,2 % contre 76,2 % pour son prédécesseur. Trois axes sont mis en avant dans l’annonce : agentic coding qui surpasse l’ancienne génération sur tous les benchmarks majeurs, raisonnement solide en texte et multimodal, et déploiement dense sans complexité MoE.

Le modèle supporte les modes thinking et non-thinking dans un même checkpoint. Il est disponible sur Hugging Face (Qwen/Qwen3.6-27B, variante FP8 incluse) et ModelScope, avec un blog technique et un Github dédiés. L’annonce a généré 3,5 millions de vues sur X.

🔗 Annonce Qwen3.6-27B

Qwen-Image-2.0-Pro — #9 mondial Text-to-Image

25 avril — Alibaba Qwen publie Qwen-Image-2.0-Pro, qui atteint la 9ème place mondiale sur le classement Text-to-Image Arena et la 6ème place en portrait. Le modèle est disponible via l’API Alibaba Cloud et ModelScope.

🔗 Qwen-Image-2.0-Pro

Grok Voice Think Fast 1.0 — #1 Tau Voice Bench

23 avril — xAI lance le modèle grok-voice-think-fast-1.0 via l’API xAI Console. Le modèle prétend la première place sur le Tau Voice Bench, avec raisonnement intégré sans latence ajoutée. Il est déjà déployé en production chez Starlink pour le support client. L’architecture est unifiée, distincte des API Grok STT/TTS annoncées en avril.

🔗 Grok Voice Think Fast 1.0

Grok Imagine — amélioration lip sync

25 avril — Grok Imagine annonce une amélioration du synchronisme labial (lip sync) et de la qualité audio pour toutes les générations image-to-video.

🔗 Grok Imagine lip sync


Génération média et agents vocaux

Kling AI 4K — upscaling natif depuis basse résolution

24 avril — Kling AI lance Kling 4K, une fonctionnalité d’agrandissement d’image en 4K natif depuis des sources basse résolution. L’annonce résumée en “Blurry in. 4K out.” a généré 5,82 millions de vues. Cette fonctionnalité est distincte de Kling Video 3.0.

🔗 Kling AI 4K

Runway intègre GPT Image 2

24 avril — Runway intègre GPT Image 2 d’OpenAI dans sa plateforme de création vidéo.

🔗 Runway × GPT Image 2

ElevenLabs × Customers Bank — agents vocaux bancaires

24 avril — ElevenLabs annonce un déploiement d’ElevenAgents chez Customers Bank (25 milliards USD d’actifs). Trois agents sont déployés : support client 24h/24, accueil des nouveaux clients et coaching en temps réel pour les conseillers.

🔗 ElevenLabs × Customers Bank

ElevenLabs — Programme Ambassadeur

23 avril — ElevenLabs ouvre les candidatures pour son programme ambassadeur, qui regroupe deux niveaux : Community Builders et Ambassadeurs, avec crédits, goodies et accès anticipé aux nouvelles fonctionnalités. L’annonce a généré 116 000 vues.

🔗 ElevenLabs Programme Ambassadeur


Recherche Anthropic : sécurité et agents

Mesures de protection électorale — résultats des évaluations

24 avril — À l’approche des midterms américains 2026, Anthropic publie un bilan de ses mesures de protection électorale. Claude Opus 4.7 et Sonnet 4.6 obtiennent respectivement 95 % et 96 % dans les évaluations mesurant l’équilibre des réponses politiques.

ModèleConformité politiqueRefus opérations d’influenceRecherche web activée
Opus 4.7100 %94 %92 %
Sonnet 4.699,8 %90 %95 %

Un banner TurboVote (ressource non-partisane de Democracy Works) sera affiché sur Claude.ai pour orienter les utilisateurs vers des informations fiables sur le vote aux midterms 2026.

🔗 Mise à jour protection électorale — Anthropic

Project Deal — agents Claude comme négociateurs

24 avril — Anthropic publie les résultats de Project Deal, une expérimentation interne sur les agents IA dans un marché de type Craigslist. Pendant une semaine, des agents Claude représentaient les employés du bureau de San Francisco pour acheter et vendre des objets entre collègues. Au total, 186 deals ont été conclus avec quatre configurations de modèles en parallèle.

MétriqueValeur
Durée1 semaine
Configurations4 (tout-Opus 4.7, tout-Haiku, 2 mixes)
Deals conclus186
Avantage Opus vs Haiku+2 deals en moyenne, prix supérieurs
Effet instructions agressivesNon significatif statistiquement

“New Anthropic research: Project Deal. We created a marketplace for employees in our San Francisco office—like Craigslist—where Claude agents negotiated deals on their behalf.”

🇫🇷 “Nouvelle recherche Anthropic : Project Deal. Nous avons créé une marketplace pour les employés de notre bureau de San Francisco — comme Craigslist — où des agents Claude négociaient des deals en leur nom.”@AnthropicAI sur X

La découverte la plus notable : les instructions agressives (“négocie durement”) n’ont eu aucun effet statistiquement significatif sur les résultats — pas à cause d’un mauvais suivi des instructions, mais à cause des contraintes propres au marché.

🔗 Project Deal — Anthropic


Ce que ça signifie

La journée du 25 avril illustre une consolidation rapide autour de quelques tendances lourdes. Sur les modèles de frontière, DeepSeek-V4 et GPT-5.5 établissent un nouveau plancher pour les capacités accessibles librement : un million de tokens de contexte n’est plus un différenciateur premium. L’arrivée de DeepSeek-V4-Pro gratuitement sur NVIDIA Blackwell, conjuguée à la promotion API de -75 %, signale une compétition tarifaire directe avec les modèles fermés.

Du côté des outils développeurs, l’extension de l’autonomie agentique se concrétise sur plusieurs fronts simultanément — Claude Code v2.1.119, Codex Auto-review, Inline Agent Mode dans JetBrains. Ces mises à jour convergent vers un même objectif : réduire les interruptions humaines dans les pipelines longs, tout en maintenant des points de contrôle pour les opérations à risque. La question du cadre légal pour les agents qui agissent en notre nom, soulevée par Project Deal, prend une résonance particulière dans ce contexte.

La fusion Cohere + Aleph Alpha avec 600 millions USD de Schwarz Group est le signal le plus structurant pour l’IA souveraine européenne. Elle crée un acteur transatlantique positionné sur les gouvernements et secteurs régulés, avec une infrastructure cloud dédiée (STACKIT), sur un marché estimé à 600 milliards USD. Le partenariat Anthropic + NEC en parallèle montre que la même logique de souveraineté s’étend à l’Asie.


Sources