Rechercher

Mistral Medium 3.5 et Vibe Remote Agents, Google TPU 8e generation, Claude for Creative Work

Cette semaine marque une accélération sur trois fronts simultanés : les modèles ouverts (Mistral Medium 3.5, NVIDIA Nemotron 3 Nano Omni), l’infrastructure matérielle (Google TPU 8e génération), et les écosystèmes d’agents (Vibe Remote Agents, Claude for Creative Work, GitHub Copilot). ElevenLabs franchit par ailleurs un cap en transformant son moteur musical IA en plateforme grand public avec monétisation.


Mistral Medium 3.5, Vibe Remote Agents et Le Chat Work Mode

29 avril — Mistral AI publie simultanément trois annonces majeures : le modèle Mistral Medium 3.5, les agents distants (remote agents) Vibe, et le mode Travail (Work Mode) dans Le Chat.

Mistral Medium 3.5 en prévisualisation publique

Medium 3.5 est un modèle dense de 128 milliards de paramètres qui unifie suivi d’instructions, raisonnement et code dans un seul ensemble de poids, avec une fenêtre contextuelle de 256 000 tokens. Il peut s’exécuter en local sur seulement quatre GPU.

CaractéristiqueValeur
ArchitectureDense 128B
Contexte256 000 tokens
SWE-Bench Verified77,6 %
τ³-Telecom91,4
LicenceMIT modifiée (open weights)
API — tokens d’entrée$1,50 / million
API — tokens de sortie$7,50 / million
Self-hosting (GPU min.)4 GPU

Le modèle dépasse Devstral 2 et Qwen3.5-397B-A17B sur SWE-Bench Verified, ce qui le positionne comme référence parmi les modèles de code open weights au moment du lancement. Il est disponible via l’API Mistral, Le Chat, Vibe, les terminaux NVIDIA (build.nvidia.com) et le microservice NVIDIA NIM.

Agents distants (remote agents) dans Vibe

Les sessions de code Vibe peuvent désormais s’exécuter dans le nuage, sans rester ouvertes en local. Plusieurs sessions tournent en parallèle pendant que le développeur fait autre chose. Un session locale peut être « téléportée » vers le nuage avec son historique et son état entier. À la fin de la tâche, l’agent ouvre automatiquement une requête de tirage (pull request) sur GitHub et notifie le développeur.

Vibe s’intègre nativement avec GitHub (code + PR), Linear et Jira (tickets), Sentry (incidents), Slack et Teams (notifications). Chaque session s’exécute dans une session isolée.

Mode Travail (Work Mode) dans Le Chat (prévisualisation)

Un nouveau mode agentique pour les tâches complexes dans Le Chat : recherche multi-sources, synthèse documentaire, tri de la boîte mail, création de tickets Jira, envoi de résumés sur Slack. Les connecteurs sont activés par défaut en mode Travail. Chaque action visible demande une approbation explicite pour les opérations sensibles.

🔗 Annonce Mistral sur X


Google TPU 8e génération — TPU 8t et TPU 8i

29 avril — Google dévoile sa huitième génération de puces TPU (Tensor Processing Unit), annoncée lors de Google Cloud Next ‘26 la semaine précédente. Deux puces distinctes composent cette génération, chacune optimisée pour une phase différente du cycle de l’IA.

A decade in the making, the chips for the agentic era have arrived. At @GoogleCloud’s Next ‘26 event last week, we unveiled our eighth-generation TPUs. TPU 8t: 3x more powerful than previous gen, 10x faster data movement, 97% productive resource utilization, training time from months to weeks. TPU 8i: tripled internal memory, 80% better perf/dollar, 5x latency reduction.

🇫🇷 Une décennie en gestation, les puces pour l’ère agentique sont arrivées. Lors de l’événement Next ‘26 de @GoogleCloud la semaine dernière, nous avons dévoilé nos TPU de huitième génération. TPU 8t : 3 fois plus puissant que la génération précédente, 10 fois plus rapide pour le mouvement des données, 97 % d’utilisation productive des ressources, temps d’entraînement réduit de plusieurs mois à quelques semaines. TPU 8i : mémoire interne triplée, 80 % d’amélioration des performances par dollar, réduction de latence 5 fois.@GoogleAI sur X

TPU 8t — entraînement des modèles

AméliorationDétail
Puissance brute3× supérieure à la génération précédente
Débit données10× plus rapide (stockage → puces)
Utilisation productive97 % des ressources (détection et reroutage automatique des pannes)
ImpactTemps d’entraînement réduit de plusieurs mois à quelques semaines

TPU 8i — inférence pour les agents IA

AméliorationDétail
Mémoire interneTriplée pour gérer des raisonnements complexes en plusieurs étapes
Efficacité coût+80 % de performance par dollar dépensé
LatenceRéduite de 5× grâce à un nouveau moteur intégré

Ces puces sont conçues pour l’ère agentique : le TPU 8t accélère la création des modèles, le TPU 8i permet à ces modèles d’agir (réserver un vol, gérer un agenda) en temps quasi réel. Google positionne cette double architecture comme le socle technologique de la prochaine décennie.


Claude for Creative Work — Blender, Autodesk Fusion, Adobe et 5 autres connecteurs MCP

28 avril — Anthropic lance une série de connecteurs MCP (Model Context Protocol) officiels destinés aux professionnels des industries créatives, en partenariat avec Blender, Autodesk, Adobe, Ableton et Splice.

OutilUsage
BlenderDébogage de scènes 3D, création d’outils, modifications en lot sur tous les objets
Autodesk FusionCréation et modification de modèles 3D par langage naturel
Adobe Creative CloudConcrétisation d’images, vidéos et designs via 50+ outils CC
Ableton Live et PushExploration de la documentation officielle du produit
SpliceRecherche de samples libres de droits directement depuis Claude
Canva AffinityAutomatisation des tâches répétitives de production
SketchUpPoint de départ pour la modélisation 3D par description textuelle
Resolume / TouchdesignerContrôle en temps réel par langage naturel pour VJs et artistes visuels

“Claude now connects to the tools creative professionals already use. With the new Blender connector, you can debug a scene, build new tools, or batch-apply changes across every object, directly from Claude.”

🇫🇷 Claude se connecte désormais aux outils que les professionnels créatifs utilisent déjà. Avec le nouveau connecteur Blender, vous pouvez déboguer une scène, créer de nouveaux outils ou appliquer des modifications en lot sur tous les objets, directement depuis Claude.@claudeai sur X

Anthropic a également rejoint le Blender Development Fund comme donateur patron, soutenant le développement du logiciel libre. Le tweet principal a généré plus de 10 millions de vues en moins de 24 heures (le tweet Autodesk Fusion atteignant 11 millions), ce qui en fait l’une des annonces les plus virales d’Anthropic depuis plusieurs mois.

Les cas d’usage mis en avant : apprentissage de logiciels complexes, extension d’outils par du code (scripts, plugins, systèmes génératifs via Claude Code), pont entre outils dans un pipeline, automatisation de tâches répétitives (traitement en lot, scaffolding).

🔗 Article Anthropic


NVIDIA Nemotron 3 Nano Omni — modèle omnimodal open source 30B

28 avril — NVIDIA lance le Nemotron 3 Nano Omni, un modèle omnimodal open source qui unifie vision, audio et langage dans une seule architecture.

ParamètreValeur
ArchitectureHybride MoE 30B-A3B (30B total, 3B actifs)
Contexte256K tokens
Modalités (entrée)Texte, images, audio, vidéo, documents, graphiques, interfaces
Modalités (sortie)Texte
Efficacité9× plus de débit que les autres modèles omnimodaux open
DisponibilitéHugging Face, OpenRouter, build.nvidia.com, 25+ plateformes partenaires

Le modèle excelle sur trois cas d’usage : le computer use (navigation d’interfaces graphiques en résolution native 1920×1080), l’intelligence documentaire (interprétation de PDF, tableaux, graphiques, captures d’écran) et le maintien du contexte audio-vidéo dans un flux de raisonnement unique.

Des organisations comme Aible, H Company, Palantir, Foxconn et Oracle évaluent le modèle dès le lancement. H Company l’intègre dans son agent de computer use.

“To build useful agents, you can’t wait seconds for a model to interpret a screen. By building on Nemotron 3 Nano Omni, our agents can rapidly interpret full HD screen recordings — something that wasn’t practical before.”

🇫🇷 Pour construire des agents utiles, on ne peut pas attendre des secondes qu’un modèle interprète un écran. En s’appuyant sur Nemotron 3 Nano Omni, nos agents interprètent rapidement des enregistrements d’écran en full HD — ce qui n’était pas pratique auparavant. — Gautier Cloix, CEO de H Company

La famille Nemotron atteint par ailleurs 50 millions de téléchargements cumulés sur l’ensemble des variantes Nano/Super/Ultra en un an.

🔗 Blog NVIDIA


ElevenMusic — plateforme musicale IA (découverte, remix, création, monétisation)

29 avril — ElevenLabs lance ElevenMusic, une plateforme musicale IA qui connecte écoute, remix et création originale dans un seul système, avec monétisation directe pour les artistes.

FonctionnalitéDescription
Découverte4 000+ artistes indépendants, catalogue curé
RemixChanger le genre, le tempo, réinterpréter une piste
CréationÀ partir de paroles, mélodie ou ambiance
PublicationDiffusion + monétisation via engagement des fans

Le modèle économique s’inspire du Voice Library d’ElevenLabs, qui a déjà reversé $11 millions à ses créateurs. Les artistes publient et gagnent selon l’engagement des auditeurs, sans label intermédiaire.

ElevenMusic se lance avec Eleven Album Vol. 2, une compilation incluant Danger Twins et Justin Love, conçue pour être expérimentée et remixée dans la plateforme. Kevin Jonas Sr. (Jonas Group Entertainment) et Amy Stroup (Danger Twins) font partie des partenaires artistiques au lancement.

“Fans want to feel like they’re part of the music, the songwriters, and the artists. ElevenMusic gives them a way in, turning a song into something people can step into, not just listen to.”

🇫🇷 Les fans veulent se sentir partie intégrante de la musique, des auteurs et des artistes. ElevenMusic leur ouvre une voie, transformant une chanson en quelque chose où on peut entrer, pas seulement écouter. — Kevin Jonas Sr., Fondateur et Président de Jonas Group Entertainment

La plateforme est disponible sur application mobile et web dès le 29 avril 2026.

🔗 Annonce @ElevenLabs sur X — 🔗 Blog ElevenLabs


GitHub Copilot code review — double facturation à partir du 1er juin 2026

27 avril — GitHub annonce qu’à partir du 1er juin 2026, chaque revue de code automatisée par GitHub Copilot consommera des minutes GitHub Actions en plus des crédits IA déjà prévus par le nouveau modèle à l’usage.

Jusqu’ici, les revues de code Copilot consommaient uniquement des unités de requêtes premium (premium request units, PRU). À compter du 1er juin, deux compteurs s’activeront simultanément pour les dépôts privés :

CompteurDétail
IA CreditsToute utilisation Copilot (dont code review) facturée en crédits IA, conformément au modèle à l’usage
Minutes GitHub ActionsConsommées depuis l’enveloppe du plan pour chaque revue sur dépôt privé ; minutes supplémentaires facturées aux tarifs Actions standard

Ce double comptage s’explique par l’architecture agentique de Copilot code review : l’outil s’appuie sur des runners GitHub-hosted pour analyser le contexte élargi du dépôt et produire des retours plus pertinents.

Plans concernés : Copilot Pro, Pro+, Business, Enterprise — y compris les revues initiées par des utilisateurs non licenciés via facturation directe à l’organisation.

Dépôts publics : aucun changement, les minutes Actions restent gratuites.

Pour se préparer avant le 1er juin :

  • Vérifier la consommation Actions actuelle dans les paramètres de facturation
  • Ajuster les plafonds de dépenses (spending limits) Actions si nécessaire
  • Informer les responsables facturation de l’organisation

🔗 Changelog GitHub


OpenAI DevDay 2026 — San Francisco, 29 septembre

29 avril — OpenAI annonce le retour de son événement annuel pour développeurs : OpenAI DevDay 2026 se tiendra le 29 septembre à San Francisco. Les inscriptions officielles n’ont pas encore ouvert.

Pour encourager l’anticipation, OpenAI lance un concours : les développeurs qui construisent quelque chose avec GPT-5.5 et la génération d’images peuvent tenter de remporter une invitation anticipée. La procédure : soumettre un lien vers le projet accompagné d’une note expliquant comment il a été construit, avec le hashtag officiel #OpenAIDevDay2026.

DétailValeur
Date29 septembre 2026
LieuSan Francisco
Hashtag officiel#OpenAIDevDay2026
Vues tweet (premières heures)239 000+

L’annonce est publiée avec cinq mois d’avance, ce qui est inhabituellement précoce pour un DevDay. Les éditions précédentes avaient servi de cadre aux lancements produits les plus structurants d’OpenAI pour la communauté des développeurs : en 2023, GPT-4 Turbo et les Assistants API y avaient été présentés. Avec l’accélération actuelle du rythme de sorties — GPT-5.5, génération d’images, Codex CLI — DevDay 2026 se dessine comme une étape importante du calendrier pour les équipes techniques qui intègrent les modèles OpenAI en production.

Un thread séparé invite les développeurs à partager leurs créations dès maintenant. Le compte @OpenAIDevs a relayé l’annonce dans les minutes suivant la publication principale.

🔗 Annonce OpenAI sur X


Écosystème agents et nouvelles intégrations

Claude Code CLI v2.1.120–2.1.123 — 50+ correctifs

28 avril — L’équipe Claude Code détaille les correctifs apportés dans les quatre dernières versions du CLI (v2.1.120 à v2.1.123) : plus de 50 améliorations de stabilité et de performance.

MétriqueValeur
Versions concernéesv2.1.120, v2.1.121, v2.1.122, v2.1.123
Nombre de correctifs50+
Gain de performance /resumeJusqu’à 67 % plus rapide
Vues thread @ClaudeDevs493 k

Les cinq axes : sessions longues accélérées (/resume jusqu’à 67 % plus rapide), authentification macOS stabilisée (douzaine de correctifs keychain), mémoire réduite sur Linux, WebFetch sans gel sur les pages volumineuses, copier-coller préservant les sauts de ligne depuis Windows et Xcode.

🔗 Thread @ClaudeDevs

OpenAI × AWS — Codex et Managed Agents sur Amazon Bedrock

28 avril — OpenAI et AWS étendent leur partenariat stratégique sur trois axes : accès aux modèles OpenAI dans les environnements AWS, Codex sur Bedrock (aperçu limité, pour les organisations souhaitant garder leurs données dans l’infrastructure Amazon) et Bedrock Managed Agents propulsés par OpenAI (disponible immédiatement). Codex compte plus de 4 millions d’utilisateurs hebdomadaires.

🔗 Annonce OpenAI

Copilot cloud agent démarre 20 % plus vite

27 avril — GitHub Copilot cloud agent démarre désormais plus de 20 % plus vite grâce à des environnements de runner préconfigurés via les images custom GitHub Actions. Cette amélioration s’ajoute à la réduction de 50 % déjà livrée en mars 2026.

🔗 Changelog GitHub

Gemini — génération de fichiers téléchargeables

29 avril — Gemini peut désormais créer des fichiers téléchargeables directement depuis le chat : PDF, Word (.docx), Excel (.xlsx), Google Docs/Sheets/Slides, CSV, LaTeX, RTF et Markdown. Disponible immédiatement pour tous les utilisateurs web et mobile.

🔗 Blog Google

Mistral Workflows en prévisualisation publique

27 avril — Mistral AI lance Workflows en prévisualisation publique, une couche d’orchestration d’entreprise construite sur le moteur d’exécution durable (durable execution engine) de Temporal (la même infrastructure que Netflix, Stripe, Salesforce). Les flux se rédigent en Python via le SDK Mistral v3.0, puis se déclenchent depuis Le Chat par les équipes métier. Les organisations ASML, France Travail et La Banque Postale l’utilisent déjà.

🔗 Annonce Mistral

Qwen FlashQLA — noyaux d’attention linéaire

29 avril — Qwen publie FlashQLA, une bibliothèque de noyaux (kernels) d’attention linéaire haute performance construite sur TileLang, conçue pour l’IA agentique sur appareils personnels : gains de 2–3× en passe avant (forward) et 2× en passe arrière (backward). Publié en open source sur GitHub.

🔗 GitHub QwenLM/FlashQLA

GPT Image 2 intégré dans Manus Slides

29 avril — Manus intègre GPT Image 2 dans Manus Slides : édition point-and-click des visuels, remplacement par prompt, génération de notes de présentation, export vers Google Slides, PowerPoint, PDF, Google Drive et OneDrive.

🔗 Annonce Manus

Salesforce connecté à Genspark

29 avril — Genspark intègre Salesforce dans son écosystème d’agents : connexion via Genspark Claw (installation CLI par instruction) ou Super Agent (connexion directe). Cas d’usage : traitement automatique des demandes clients, tableaux de bord trimestriels, gestion automatisée du pipeline commercial.

🔗 Annonce Genspark

GPT-5.5 et ChatGPT Images 2.0 sur Genspark

28 avril — Genspark intègre GPT-5.5 dans son chat IA et ChatGPT Images 2.0 (GPT Image 2) dans son générateur d’images, accessibles respectivement sur genspark.ai/agents et genspark.ai/ai_image.

🔗 Annonce Genspark

Pika Agents — interface conversationnelle créative

28 avril — Pika lance les Pika Agents : une interface de création vidéo qui remplace la boîte de prompt par un agent IA personnalisé (voix, visage, personnalité configurés par l’utilisateur). L’agent comprend les intentions créatives en langage naturel et assemble, affine et produit en une seule conversation.

🔗 Annonce Pika

Codex seats à $0 pour ChatGPT Business jusqu’à fin juin

29 avril — OpenAI permet aux abonnés éligibles à ChatGPT Business d’ajouter des sièges Codex sans frais de siège jusqu’à fin juin 2026, accompagnant l’expansion de Codex sur AWS.

🔗 Annonce @OpenAIDevs

Problème d’Erdős vieux de 60 ans résolu avec GPT-5.5

28 avril — OpenAI publie un épisode de podcast dans lequel Sébastien Bubeck et Ernest Ryu reviennent sur la résolution d’un problème mathématique ouvert depuis 60 ans, attribué à Paul Erdős, avec l’aide de GPT-5.5. Le tweet dépasse 399 000 vues.

🔗 Tweet OpenAI


Brèves

  • DeepSeek-V4-Pro : promo -75 % prolongée — La réduction de 75 % sur l’API DeepSeek-V4-Pro est étendue jusqu’au 31 mai 2026. Tarifs promotionnels : $0,003625/M tokens en entrée (cache hit), $0,435 (cache miss), $0,87 en sortie. 🔗 Tweet DeepSeek

  • Google DeepMind — Experience AI en Amérique latine — Le programme éducatif Experience AI (Raspberry Pi Foundation) s’étend en Amérique latine avec un objectif de 24 000 enseignants formés et 1,25 million d’élèves touchés d’ici 2028, financé à hauteur de $4,6 millions par Google.org. 🔗 Tweet Google DeepMind

  • GPT-5.3-Codex retiré du sélecteur Copilot Student — À compter du 27 avril 2026, GPT-5.3-Codex n’est plus sélectionnable manuellement dans le plan Copilot Student ; il reste accessible via la sélection automatique. 🔗 Changelog GitHub

  • Responses API — domaines bloqués pour la recherche web — La Responses API d’OpenAI permet désormais de bloquer des domaines spécifiques tout en conservant la recherche web activée, pour exclure des sources précises des résultats. 🔗 Tweet @charlierguo

  • OpenAI — engagement sécurité communautaire — OpenAI publie un article détaillant ses pratiques de sécurité dans ChatGPT : mitigation des risques dans le modèle, surveillance automatisée, mise en relation avec des ressources d’aide et signalement aux autorités dans les cas graves. Publication de transparence sans nouvelle fonctionnalité. 🔗 Annonce OpenAI


Ce que ça signifie

La course aux modèles ouverts s’intensifie. Mistral Medium 3.5 (128B, SWE-Bench 77,6 %) et NVIDIA Nemotron 3 Nano Omni (30B, 9× plus efficace que les autres omnimodaux open) arrivent simultanément avec des licences permissives. Les deux modèles se positionnent comme alternatives crédibles aux frontières fermées : Mistral sur le code et le raisonnement, Nemotron sur la multimodalité agentique. Cette pression maintient un écart de moins en moins large entre modèles propriétaires et open weights.

L’infrastructure matérielle reste le goulot d’étranglement stratégique. Les TPU 8e génération de Google (3× en entraînement, 5× moins de latence en inférence) illustrent que la course à l’IA se joue aussi au niveau du silicium. L’annonce de Google Cloud Next ‘26 positionne l’infrastructure Google comme un avantage compétitif durable face aux GPU NVIDIA — même si les deux coexistent dans les déploiements réels.

L’écosystème agentique se fragmente en spécialisations verticales. Cette semaine, les agents IA s’installent dans les outils créatifs (Claude for Creative Work avec 8+ connecteurs MCP), le développement logiciel (Vibe Remote Agents, Copilot cloud agent 20 % plus rapide), la musique (ElevenMusic), la vidéo (Pika Agents), les CRM (Salesforce dans Genspark) et les workflows d’entreprise (Mistral Workflows). La question n’est plus « est-ce que l’IA peut faire ça ? » mais « dans quel outil spécialisé et selon quel modèle de facturation ? ».

La facturation à l’usage transforme les modèles économiques des développeurs. Le passage de GitHub Copilot code review à un double comptage (crédits IA + minutes Actions) à partir du 1er juin, combiné à l’offre Codex seats à $0 pour ChatGPT Business, illustre une dynamique : les éditeurs subventionnent l’adoption (gratuité temporaire, promo -75 % DeepSeek) pour créer des habitudes avant de normaliser la facturation à l’usage. Les équipes techniques ont intérêt à auditer leurs postes de dépenses IA avant juin.


Sources