Cette semaine marque une accélération sur trois fronts simultanés : les modèles ouverts (Mistral Medium 3.5, NVIDIA Nemotron 3 Nano Omni), l’infrastructure matérielle (Google TPU 8e génération), et les écosystèmes d’agents (Vibe Remote Agents, Claude for Creative Work, GitHub Copilot). ElevenLabs franchit par ailleurs un cap en transformant son moteur musical IA en plateforme grand public avec monétisation.
Mistral Medium 3.5, Vibe Remote Agents et Le Chat Work Mode
29 avril — Mistral AI publie simultanément trois annonces majeures : le modèle Mistral Medium 3.5, les agents distants (remote agents) Vibe, et le mode Travail (Work Mode) dans Le Chat.
Mistral Medium 3.5 en prévisualisation publique
Medium 3.5 est un modèle dense de 128 milliards de paramètres qui unifie suivi d’instructions, raisonnement et code dans un seul ensemble de poids, avec une fenêtre contextuelle de 256 000 tokens. Il peut s’exécuter en local sur seulement quatre GPU.
| Caractéristique | Valeur |
|---|---|
| Architecture | Dense 128B |
| Contexte | 256 000 tokens |
| SWE-Bench Verified | 77,6 % |
| τ³-Telecom | 91,4 |
| Licence | MIT modifiée (open weights) |
| API — tokens d’entrée | $1,50 / million |
| API — tokens de sortie | $7,50 / million |
| Self-hosting (GPU min.) | 4 GPU |
Le modèle dépasse Devstral 2 et Qwen3.5-397B-A17B sur SWE-Bench Verified, ce qui le positionne comme référence parmi les modèles de code open weights au moment du lancement. Il est disponible via l’API Mistral, Le Chat, Vibe, les terminaux NVIDIA (build.nvidia.com) et le microservice NVIDIA NIM.
Agents distants (remote agents) dans Vibe
Les sessions de code Vibe peuvent désormais s’exécuter dans le nuage, sans rester ouvertes en local. Plusieurs sessions tournent en parallèle pendant que le développeur fait autre chose. Un session locale peut être « téléportée » vers le nuage avec son historique et son état entier. À la fin de la tâche, l’agent ouvre automatiquement une requête de tirage (pull request) sur GitHub et notifie le développeur.
Vibe s’intègre nativement avec GitHub (code + PR), Linear et Jira (tickets), Sentry (incidents), Slack et Teams (notifications). Chaque session s’exécute dans une session isolée.
Mode Travail (Work Mode) dans Le Chat (prévisualisation)
Un nouveau mode agentique pour les tâches complexes dans Le Chat : recherche multi-sources, synthèse documentaire, tri de la boîte mail, création de tickets Jira, envoi de résumés sur Slack. Les connecteurs sont activés par défaut en mode Travail. Chaque action visible demande une approbation explicite pour les opérations sensibles.
Google TPU 8e génération — TPU 8t et TPU 8i
29 avril — Google dévoile sa huitième génération de puces TPU (Tensor Processing Unit), annoncée lors de Google Cloud Next ‘26 la semaine précédente. Deux puces distinctes composent cette génération, chacune optimisée pour une phase différente du cycle de l’IA.
A decade in the making, the chips for the agentic era have arrived. At @GoogleCloud’s Next ‘26 event last week, we unveiled our eighth-generation TPUs. TPU 8t: 3x more powerful than previous gen, 10x faster data movement, 97% productive resource utilization, training time from months to weeks. TPU 8i: tripled internal memory, 80% better perf/dollar, 5x latency reduction.
🇫🇷 Une décennie en gestation, les puces pour l’ère agentique sont arrivées. Lors de l’événement Next ‘26 de @GoogleCloud la semaine dernière, nous avons dévoilé nos TPU de huitième génération. TPU 8t : 3 fois plus puissant que la génération précédente, 10 fois plus rapide pour le mouvement des données, 97 % d’utilisation productive des ressources, temps d’entraînement réduit de plusieurs mois à quelques semaines. TPU 8i : mémoire interne triplée, 80 % d’amélioration des performances par dollar, réduction de latence 5 fois. — @GoogleAI sur X
TPU 8t — entraînement des modèles
| Amélioration | Détail |
|---|---|
| Puissance brute | 3× supérieure à la génération précédente |
| Débit données | 10× plus rapide (stockage → puces) |
| Utilisation productive | 97 % des ressources (détection et reroutage automatique des pannes) |
| Impact | Temps d’entraînement réduit de plusieurs mois à quelques semaines |
TPU 8i — inférence pour les agents IA
| Amélioration | Détail |
|---|---|
| Mémoire interne | Triplée pour gérer des raisonnements complexes en plusieurs étapes |
| Efficacité coût | +80 % de performance par dollar dépensé |
| Latence | Réduite de 5× grâce à un nouveau moteur intégré |
Ces puces sont conçues pour l’ère agentique : le TPU 8t accélère la création des modèles, le TPU 8i permet à ces modèles d’agir (réserver un vol, gérer un agenda) en temps quasi réel. Google positionne cette double architecture comme le socle technologique de la prochaine décennie.
Claude for Creative Work — Blender, Autodesk Fusion, Adobe et 5 autres connecteurs MCP
28 avril — Anthropic lance une série de connecteurs MCP (Model Context Protocol) officiels destinés aux professionnels des industries créatives, en partenariat avec Blender, Autodesk, Adobe, Ableton et Splice.
| Outil | Usage |
|---|---|
| Blender | Débogage de scènes 3D, création d’outils, modifications en lot sur tous les objets |
| Autodesk Fusion | Création et modification de modèles 3D par langage naturel |
| Adobe Creative Cloud | Concrétisation d’images, vidéos et designs via 50+ outils CC |
| Ableton Live et Push | Exploration de la documentation officielle du produit |
| Splice | Recherche de samples libres de droits directement depuis Claude |
| Canva Affinity | Automatisation des tâches répétitives de production |
| SketchUp | Point de départ pour la modélisation 3D par description textuelle |
| Resolume / Touchdesigner | Contrôle en temps réel par langage naturel pour VJs et artistes visuels |
“Claude now connects to the tools creative professionals already use. With the new Blender connector, you can debug a scene, build new tools, or batch-apply changes across every object, directly from Claude.”
🇫🇷 Claude se connecte désormais aux outils que les professionnels créatifs utilisent déjà. Avec le nouveau connecteur Blender, vous pouvez déboguer une scène, créer de nouveaux outils ou appliquer des modifications en lot sur tous les objets, directement depuis Claude. — @claudeai sur X
Anthropic a également rejoint le Blender Development Fund comme donateur patron, soutenant le développement du logiciel libre. Le tweet principal a généré plus de 10 millions de vues en moins de 24 heures (le tweet Autodesk Fusion atteignant 11 millions), ce qui en fait l’une des annonces les plus virales d’Anthropic depuis plusieurs mois.
Les cas d’usage mis en avant : apprentissage de logiciels complexes, extension d’outils par du code (scripts, plugins, systèmes génératifs via Claude Code), pont entre outils dans un pipeline, automatisation de tâches répétitives (traitement en lot, scaffolding).
NVIDIA Nemotron 3 Nano Omni — modèle omnimodal open source 30B
28 avril — NVIDIA lance le Nemotron 3 Nano Omni, un modèle omnimodal open source qui unifie vision, audio et langage dans une seule architecture.
| Paramètre | Valeur |
|---|---|
| Architecture | Hybride MoE 30B-A3B (30B total, 3B actifs) |
| Contexte | 256K tokens |
| Modalités (entrée) | Texte, images, audio, vidéo, documents, graphiques, interfaces |
| Modalités (sortie) | Texte |
| Efficacité | 9× plus de débit que les autres modèles omnimodaux open |
| Disponibilité | Hugging Face, OpenRouter, build.nvidia.com, 25+ plateformes partenaires |
Le modèle excelle sur trois cas d’usage : le computer use (navigation d’interfaces graphiques en résolution native 1920×1080), l’intelligence documentaire (interprétation de PDF, tableaux, graphiques, captures d’écran) et le maintien du contexte audio-vidéo dans un flux de raisonnement unique.
Des organisations comme Aible, H Company, Palantir, Foxconn et Oracle évaluent le modèle dès le lancement. H Company l’intègre dans son agent de computer use.
“To build useful agents, you can’t wait seconds for a model to interpret a screen. By building on Nemotron 3 Nano Omni, our agents can rapidly interpret full HD screen recordings — something that wasn’t practical before.”
🇫🇷 Pour construire des agents utiles, on ne peut pas attendre des secondes qu’un modèle interprète un écran. En s’appuyant sur Nemotron 3 Nano Omni, nos agents interprètent rapidement des enregistrements d’écran en full HD — ce qui n’était pas pratique auparavant. — Gautier Cloix, CEO de H Company
La famille Nemotron atteint par ailleurs 50 millions de téléchargements cumulés sur l’ensemble des variantes Nano/Super/Ultra en un an.
ElevenMusic — plateforme musicale IA (découverte, remix, création, monétisation)
29 avril — ElevenLabs lance ElevenMusic, une plateforme musicale IA qui connecte écoute, remix et création originale dans un seul système, avec monétisation directe pour les artistes.
| Fonctionnalité | Description |
|---|---|
| Découverte | 4 000+ artistes indépendants, catalogue curé |
| Remix | Changer le genre, le tempo, réinterpréter une piste |
| Création | À partir de paroles, mélodie ou ambiance |
| Publication | Diffusion + monétisation via engagement des fans |
Le modèle économique s’inspire du Voice Library d’ElevenLabs, qui a déjà reversé $11 millions à ses créateurs. Les artistes publient et gagnent selon l’engagement des auditeurs, sans label intermédiaire.
ElevenMusic se lance avec Eleven Album Vol. 2, une compilation incluant Danger Twins et Justin Love, conçue pour être expérimentée et remixée dans la plateforme. Kevin Jonas Sr. (Jonas Group Entertainment) et Amy Stroup (Danger Twins) font partie des partenaires artistiques au lancement.
“Fans want to feel like they’re part of the music, the songwriters, and the artists. ElevenMusic gives them a way in, turning a song into something people can step into, not just listen to.”
🇫🇷 Les fans veulent se sentir partie intégrante de la musique, des auteurs et des artistes. ElevenMusic leur ouvre une voie, transformant une chanson en quelque chose où on peut entrer, pas seulement écouter. — Kevin Jonas Sr., Fondateur et Président de Jonas Group Entertainment
La plateforme est disponible sur application mobile et web dès le 29 avril 2026.
🔗 Annonce @ElevenLabs sur X — 🔗 Blog ElevenLabs
GitHub Copilot code review — double facturation à partir du 1er juin 2026
27 avril — GitHub annonce qu’à partir du 1er juin 2026, chaque revue de code automatisée par GitHub Copilot consommera des minutes GitHub Actions en plus des crédits IA déjà prévus par le nouveau modèle à l’usage.
Jusqu’ici, les revues de code Copilot consommaient uniquement des unités de requêtes premium (premium request units, PRU). À compter du 1er juin, deux compteurs s’activeront simultanément pour les dépôts privés :
| Compteur | Détail |
|---|---|
| IA Credits | Toute utilisation Copilot (dont code review) facturée en crédits IA, conformément au modèle à l’usage |
| Minutes GitHub Actions | Consommées depuis l’enveloppe du plan pour chaque revue sur dépôt privé ; minutes supplémentaires facturées aux tarifs Actions standard |
Ce double comptage s’explique par l’architecture agentique de Copilot code review : l’outil s’appuie sur des runners GitHub-hosted pour analyser le contexte élargi du dépôt et produire des retours plus pertinents.
Plans concernés : Copilot Pro, Pro+, Business, Enterprise — y compris les revues initiées par des utilisateurs non licenciés via facturation directe à l’organisation.
Dépôts publics : aucun changement, les minutes Actions restent gratuites.
Pour se préparer avant le 1er juin :
- Vérifier la consommation Actions actuelle dans les paramètres de facturation
- Ajuster les plafonds de dépenses (spending limits) Actions si nécessaire
- Informer les responsables facturation de l’organisation
OpenAI DevDay 2026 — San Francisco, 29 septembre
29 avril — OpenAI annonce le retour de son événement annuel pour développeurs : OpenAI DevDay 2026 se tiendra le 29 septembre à San Francisco. Les inscriptions officielles n’ont pas encore ouvert.
Pour encourager l’anticipation, OpenAI lance un concours : les développeurs qui construisent quelque chose avec GPT-5.5 et la génération d’images peuvent tenter de remporter une invitation anticipée. La procédure : soumettre un lien vers le projet accompagné d’une note expliquant comment il a été construit, avec le hashtag officiel #OpenAIDevDay2026.
| Détail | Valeur |
|---|---|
| Date | 29 septembre 2026 |
| Lieu | San Francisco |
| Hashtag officiel | #OpenAIDevDay2026 |
| Vues tweet (premières heures) | 239 000+ |
L’annonce est publiée avec cinq mois d’avance, ce qui est inhabituellement précoce pour un DevDay. Les éditions précédentes avaient servi de cadre aux lancements produits les plus structurants d’OpenAI pour la communauté des développeurs : en 2023, GPT-4 Turbo et les Assistants API y avaient été présentés. Avec l’accélération actuelle du rythme de sorties — GPT-5.5, génération d’images, Codex CLI — DevDay 2026 se dessine comme une étape importante du calendrier pour les équipes techniques qui intègrent les modèles OpenAI en production.
Un thread séparé invite les développeurs à partager leurs créations dès maintenant. Le compte @OpenAIDevs a relayé l’annonce dans les minutes suivant la publication principale.
Écosystème agents et nouvelles intégrations
Claude Code CLI v2.1.120–2.1.123 — 50+ correctifs
28 avril — L’équipe Claude Code détaille les correctifs apportés dans les quatre dernières versions du CLI (v2.1.120 à v2.1.123) : plus de 50 améliorations de stabilité et de performance.
| Métrique | Valeur |
|---|---|
| Versions concernées | v2.1.120, v2.1.121, v2.1.122, v2.1.123 |
| Nombre de correctifs | 50+ |
Gain de performance /resume | Jusqu’à 67 % plus rapide |
| Vues thread @ClaudeDevs | 493 k |
Les cinq axes : sessions longues accélérées (/resume jusqu’à 67 % plus rapide), authentification macOS stabilisée (douzaine de correctifs keychain), mémoire réduite sur Linux, WebFetch sans gel sur les pages volumineuses, copier-coller préservant les sauts de ligne depuis Windows et Xcode.
OpenAI × AWS — Codex et Managed Agents sur Amazon Bedrock
28 avril — OpenAI et AWS étendent leur partenariat stratégique sur trois axes : accès aux modèles OpenAI dans les environnements AWS, Codex sur Bedrock (aperçu limité, pour les organisations souhaitant garder leurs données dans l’infrastructure Amazon) et Bedrock Managed Agents propulsés par OpenAI (disponible immédiatement). Codex compte plus de 4 millions d’utilisateurs hebdomadaires.
Copilot cloud agent démarre 20 % plus vite
27 avril — GitHub Copilot cloud agent démarre désormais plus de 20 % plus vite grâce à des environnements de runner préconfigurés via les images custom GitHub Actions. Cette amélioration s’ajoute à la réduction de 50 % déjà livrée en mars 2026.
Gemini — génération de fichiers téléchargeables
29 avril — Gemini peut désormais créer des fichiers téléchargeables directement depuis le chat : PDF, Word (.docx), Excel (.xlsx), Google Docs/Sheets/Slides, CSV, LaTeX, RTF et Markdown. Disponible immédiatement pour tous les utilisateurs web et mobile.
Mistral Workflows en prévisualisation publique
27 avril — Mistral AI lance Workflows en prévisualisation publique, une couche d’orchestration d’entreprise construite sur le moteur d’exécution durable (durable execution engine) de Temporal (la même infrastructure que Netflix, Stripe, Salesforce). Les flux se rédigent en Python via le SDK Mistral v3.0, puis se déclenchent depuis Le Chat par les équipes métier. Les organisations ASML, France Travail et La Banque Postale l’utilisent déjà.
Qwen FlashQLA — noyaux d’attention linéaire
29 avril — Qwen publie FlashQLA, une bibliothèque de noyaux (kernels) d’attention linéaire haute performance construite sur TileLang, conçue pour l’IA agentique sur appareils personnels : gains de 2–3× en passe avant (forward) et 2× en passe arrière (backward). Publié en open source sur GitHub.
GPT Image 2 intégré dans Manus Slides
29 avril — Manus intègre GPT Image 2 dans Manus Slides : édition point-and-click des visuels, remplacement par prompt, génération de notes de présentation, export vers Google Slides, PowerPoint, PDF, Google Drive et OneDrive.
Salesforce connecté à Genspark
29 avril — Genspark intègre Salesforce dans son écosystème d’agents : connexion via Genspark Claw (installation CLI par instruction) ou Super Agent (connexion directe). Cas d’usage : traitement automatique des demandes clients, tableaux de bord trimestriels, gestion automatisée du pipeline commercial.
GPT-5.5 et ChatGPT Images 2.0 sur Genspark
28 avril — Genspark intègre GPT-5.5 dans son chat IA et ChatGPT Images 2.0 (GPT Image 2) dans son générateur d’images, accessibles respectivement sur genspark.ai/agents et genspark.ai/ai_image.
Pika Agents — interface conversationnelle créative
28 avril — Pika lance les Pika Agents : une interface de création vidéo qui remplace la boîte de prompt par un agent IA personnalisé (voix, visage, personnalité configurés par l’utilisateur). L’agent comprend les intentions créatives en langage naturel et assemble, affine et produit en une seule conversation.
Codex seats à $0 pour ChatGPT Business jusqu’à fin juin
29 avril — OpenAI permet aux abonnés éligibles à ChatGPT Business d’ajouter des sièges Codex sans frais de siège jusqu’à fin juin 2026, accompagnant l’expansion de Codex sur AWS.
Problème d’Erdős vieux de 60 ans résolu avec GPT-5.5
28 avril — OpenAI publie un épisode de podcast dans lequel Sébastien Bubeck et Ernest Ryu reviennent sur la résolution d’un problème mathématique ouvert depuis 60 ans, attribué à Paul Erdős, avec l’aide de GPT-5.5. Le tweet dépasse 399 000 vues.
Brèves
-
DeepSeek-V4-Pro : promo -75 % prolongée — La réduction de 75 % sur l’API DeepSeek-V4-Pro est étendue jusqu’au 31 mai 2026. Tarifs promotionnels : $0,003625/M tokens en entrée (cache hit), $0,435 (cache miss), $0,87 en sortie. 🔗 Tweet DeepSeek
-
Google DeepMind — Experience AI en Amérique latine — Le programme éducatif Experience AI (Raspberry Pi Foundation) s’étend en Amérique latine avec un objectif de 24 000 enseignants formés et 1,25 million d’élèves touchés d’ici 2028, financé à hauteur de $4,6 millions par Google.org. 🔗 Tweet Google DeepMind
-
GPT-5.3-Codex retiré du sélecteur Copilot Student — À compter du 27 avril 2026, GPT-5.3-Codex n’est plus sélectionnable manuellement dans le plan Copilot Student ; il reste accessible via la sélection automatique. 🔗 Changelog GitHub
-
Responses API — domaines bloqués pour la recherche web — La Responses API d’OpenAI permet désormais de bloquer des domaines spécifiques tout en conservant la recherche web activée, pour exclure des sources précises des résultats. 🔗 Tweet @charlierguo
-
OpenAI — engagement sécurité communautaire — OpenAI publie un article détaillant ses pratiques de sécurité dans ChatGPT : mitigation des risques dans le modèle, surveillance automatisée, mise en relation avec des ressources d’aide et signalement aux autorités dans les cas graves. Publication de transparence sans nouvelle fonctionnalité. 🔗 Annonce OpenAI
Ce que ça signifie
La course aux modèles ouverts s’intensifie. Mistral Medium 3.5 (128B, SWE-Bench 77,6 %) et NVIDIA Nemotron 3 Nano Omni (30B, 9× plus efficace que les autres omnimodaux open) arrivent simultanément avec des licences permissives. Les deux modèles se positionnent comme alternatives crédibles aux frontières fermées : Mistral sur le code et le raisonnement, Nemotron sur la multimodalité agentique. Cette pression maintient un écart de moins en moins large entre modèles propriétaires et open weights.
L’infrastructure matérielle reste le goulot d’étranglement stratégique. Les TPU 8e génération de Google (3× en entraînement, 5× moins de latence en inférence) illustrent que la course à l’IA se joue aussi au niveau du silicium. L’annonce de Google Cloud Next ‘26 positionne l’infrastructure Google comme un avantage compétitif durable face aux GPU NVIDIA — même si les deux coexistent dans les déploiements réels.
L’écosystème agentique se fragmente en spécialisations verticales. Cette semaine, les agents IA s’installent dans les outils créatifs (Claude for Creative Work avec 8+ connecteurs MCP), le développement logiciel (Vibe Remote Agents, Copilot cloud agent 20 % plus rapide), la musique (ElevenMusic), la vidéo (Pika Agents), les CRM (Salesforce dans Genspark) et les workflows d’entreprise (Mistral Workflows). La question n’est plus « est-ce que l’IA peut faire ça ? » mais « dans quel outil spécialisé et selon quel modèle de facturation ? ».
La facturation à l’usage transforme les modèles économiques des développeurs. Le passage de GitHub Copilot code review à un double comptage (crédits IA + minutes Actions) à partir du 1er juin, combiné à l’offre Codex seats à $0 pour ChatGPT Business, illustre une dynamique : les éditeurs subventionnent l’adoption (gratuité temporaire, promo -75 % DeepSeek) pour créer des habitudes avant de normaliser la facturation à l’usage. Les équipes techniques ont intérêt à auditer leurs postes de dépenses IA avant juin.
Sources
- Mistral Medium 3.5 + Vibe Remote Agents
- Annonce @mistralvibe sur X
- Mistral Workflows
- Google TPU 8e génération — @GoogleAI sur X
- Claude for Creative Work — Anthropic
- NVIDIA Nemotron 3 Nano Omni — Blog NVIDIA
- ElevenMusic — Blog ElevenLabs
- GitHub Copilot code review → Actions minutes
- Copilot cloud agent 20 % plus rapide
- OpenAI DevDay 2026 — @OpenAI sur X
- OpenAI × AWS
- Codex seats $0 — @OpenAIDevs sur X
- Problème d’Erdős — @OpenAI sur X
- Gemini génération de fichiers — Blog Google
- Qwen FlashQLA — GitHub
- GPT Image 2 dans Manus Slides
- Salesforce dans Genspark
- GPT-5.5 et ChatGPT Images 2.0 sur Genspark
- Pika Agents
- Claude Code CLI v2.1.123 — @ClaudeDevs sur X
- DeepSeek-V4-Pro promo prolongée
- Google DeepMind Experience AI Amérique latine
- GPT-5.3-Codex retiré Copilot Student
- Responses API domaines bloqués
- OpenAI engagement sécurité communautaire