Journée chargée le 15 avril : Anthropic lance un redesign complet de l’application desktop Claude Code orientée agents parallèles, OpenAI publie les Agents SDK v0.14.0 avec sandbox native et primitives agentiques standardisées, Google annonce simultanément Gemini 3.1 Flash TTS (Elo 1 211) et une application desktop macOS gratuite. En parallèle, Mistral ouvre les Connectors MCP dans Studio, Anthropic publie deux études marquantes sur l’alignement, et une première dans la publicité automobile : le premier spot Mazda entièrement produit par IA.
Claude Code Desktop : redesign pour agents parallèles
14 avril — Anthropic lance un redesign complet de l’application desktop Claude Code, pensé pour l’exécution de plusieurs sessions en parallèle.
“We’ve redesigned Claude Code on desktop. You can now run multiple Claude sessions side by side from the same app.”
🇫🇷 Nous avons repensé Claude Code sur desktop. Vous pouvez désormais lancer plusieurs sessions Claude en parallèle depuis la même application. — @claudeai sur X
| Fonctionnalité | Description |
|---|---|
| Sidebar de sessions | Toutes les sessions actives et récentes, filtrables par statut, projet ou environnement |
| Side chat (⌘+; / Ctrl+;) | Branche une conversation depuis la session principale sans la polluer |
| Terminal intégré | Lancer des tests ou builds sans quitter l’app |
| Éditeur de fichiers in-app | Ouvrir, modifier et sauvegarder des fichiers directement |
| Diff viewer reconstruit | Performances améliorées sur les gros changesets |
| Preview étendue | HTML, PDF, serveurs locaux dans le panneau de preview |
| Layout drag-and-drop | Arranger terminal, preview, diff viewer et chat librement |
| Parité plugins CLI | Les plugins fonctionnent identiquement dans l’app desktop |
| SSH étendu à Mac | En plus de Linux, les sessions peuvent pointer vers des machines distantes |
| 3 modes de vue | Verbose, Normal, Summary — du détail complet aux résultats uniquement |
La sidebar de sessions constitue le changement le plus structurant : elle centralise toutes les sessions actives en un seul endroit, ce qui change fondamentalement la façon de travailler avec plusieurs agents en parallèle. Le side chat (⌘+; sur Mac, Ctrl+; sur Linux/Windows) permet d’initier une conversation annexe sans polluer le contexte de la session principale — utile pour poser une question rapide ou tester une hypothèse.
L’extension SSH à macOS comble un écart notable avec Linux : les sessions peuvent désormais pointer vers des machines distantes depuis le Mac, ce qui ouvre la voie aux workflows où le code s’exécute sur un serveur distant tout en restant piloté depuis l’interface locale.
Disponible maintenant pour tous les utilisateurs Claude Code sur les plans Pro, Max, Team, Enterprise et via l’API Claude.
🔗 Blog Claude — Redesigning Claude Code on desktop 🔗 Télécharger l’application
OpenAI Agents SDK v0.14.0 : sandbox native et primitives agentiques
15 avril — OpenAI publie une évolution significative de son Agents SDK (openai-agents>=0.14.0). L’annonce positionne ce SDK comme l’infrastructure standard pour construire des agents en production.
Harness natif enrichi
Le SDK intègre désormais un ensemble de primitives qui s’alignent sur ce que font les autres environnements d’exécution agentiques de pointe :
| Primitive | Description |
|---|---|
| MCP (tool use) | Appel d’outils via le protocole MCP |
| AGENTS.md | Instructions personnalisées via fichier de configuration |
shell tool | Exécution de commandes (execution de code) |
apply patch tool | Édition de fichiers par patch |
| Skills | Divulgation progressive des capacités |
| Mémoire configurable | Gestion de l’état long terme de l’agent |
Environnement d’exécution en bac à sable (sandbox)
Les agents peuvent désormais s’exécuter dans des environnements contrôlés (sandboxes) avec leur système de fichiers, leurs dépendances et leurs outils. La séparation entre l’orchestrateur (harness) et le calcul (compute) est conçue pour trois objectifs : protéger les identifiants dans les environnements où le code généré s’exécute, permettre une exécution durable via point de contrôle (checkpoint) et réhydratation si le conteneur tombe, et permettre le passage à l’échelle (scaling) avec plusieurs bacs à sable en parallèle.
Fournisseurs de bacs à sable supportés nativement : Blaxel, Cloudflare, Daytona, E2B, Modal, Runloop, Vercel.
Stockage via l’abstraction Manifest : AWS S3, Google Cloud Storage, Azure Blob Storage, Cloudflare R2.
Disponibilité
Python en premier, TypeScript prévu dans une prochaine version. Parmi les entreprises ayant testé en avant-première : Oscar Health, LexisNexis, Thomson Reuters, Zoom.
Gemini 3.1 Flash TTS : audio tags et Elo 1 211
15 avril — Google lance Gemini 3.1 Flash TTS, son modèle de synthèse vocale (text-to-speech) le plus expressif et contrôlable à ce jour.
La nouveauté phare est l’introduction des audio tags : des commandes en langage naturel intégrées directement dans le texte d’entrée pour piloter le style vocal, le rythme et la tonalité. Un passage entouré de [excitement] sera prononcé avec enthousiasme, un passage [explanatory] adoptera un ton pédagogique. Cette approche place le développeur dans un rôle de « directeur » pour composer des expériences audio précises.
| Fonctionnalité | Détail |
|---|---|
| Audio tags | Commandes en langage naturel dans le texte |
| Langues supportées | 70+ (dont 24 haute qualité évaluées) |
| Dialogue multi-locuteurs | Natif |
| Watermarking | SynthID intégré sur tout l’audio généré |
| Score Elo | 1 211 (Artificial Analysis TTS Leaderboard) |
Avec un score Elo de 1 211 sur le classement de référence Artificial Analysis TTS — qui mesure des milliers de préférences humaines en test aveugle — le modèle est positionné dans le « quadrant le plus attractif » pour son équilibre qualité/coût.
Dans Google AI Studio, trois contrôles avancés sont disponibles : Scene direction (définir l’environnement et les instructions de jeu), Speaker-level specificity (profils audio uniques par personnage), et Seamless export (export des paramètres en code API pour maintenir la cohérence vocale entre projets).
Tout l’audio généré est imperceptiblement marqué par SynthID, le filigrane numérique de Google.
Disponibilité :
- Développeurs : aperçu (preview) via l’API Gemini et Google AI Studio
- Entreprises : aperçu sur Vertex AI
- Utilisateurs Workspace : via Google Vids
🔗 Article blog.google — Gemini 3.1 Flash TTS
Gemini App pour Mac : client desktop natif
15 avril — Google lance l’application Gemini pour macOS, disponible gratuitement pour tous les utilisateurs sur macOS 15 et supérieur.
| Fonctionnalité | Détail |
|---|---|
| Raccourci global | Option + Space depuis n’importe quelle application |
| Partage de fenêtre | Contexte sur documents locaux, code, données |
| Génération d’images | Intégration Nano Banana |
| Génération de vidéos | Intégration Veo |
| Disponibilité | Gratuit, macOS 15+, mondial |
L’application est accessible depuis n’importe quel écran via Option + Space, permettant d’interroger Gemini sans quitter son flux de travail. Elle peut partager la fenêtre active pour fournir un contexte instantané sur des fichiers locaux, tableaux, graphiques ou blocs de code.
Google présente cette version comme une « première version » qui pose les bases d’un assistant de bureau personnel et proactif, avec davantage d’annonces prévues dans les prochains mois.
🔗 Article blog.google — Gemini App pour macOS
Claude Code v2.1.108 et v2.1.109 : recap de session, caching 1h, thinking
14-15 avril — Deux nouvelles versions de Claude Code en deux jours.
v2.1.108 apporte plusieurs améliorations fonctionnelles :
| Fonctionnalité | Description |
|---|---|
| Recap de session | /recap ou /config, déclenché automatiquement après une absence. Forçable via CLAUDE_CODE_ENABLE_AWAY_SUMMARY |
| Prompt caching 1h | Variable ENABLE_PROMPT_CACHING_1H pour TTL 1h (API key, Bedrock, Vertex, Foundry). FORCE_PROMPT_CACHING_5M force le TTL 5 min |
| Slash commands via Skill tool | Le modèle peut invoquer les commandes built-in (/init, /review, /security-review) via le Skill tool |
/undo alias | /undo est maintenant un alias pour /rewind |
Améliorations /model | Avertissement avant changement de modèle (la réponse suivante re-lit l’historique complet sans cache) |
Améliorations /resume | Défaut sur les sessions du répertoire courant ; Ctrl+A pour voir tous les projets |
La feature /recap est particulièrement utile dans un contexte d’agents parallèles : quand on revient à une session laissée en arrière-plan, Claude résume ce qui s’est passé depuis la dernière interaction.
v2.1.109 apporte une amélioration de l’interface pour le mode extended thinking : l’indicateur de progression tourne avec un hint rotatif pour mieux visualiser que le modèle est en phase de réflexion.
Anthropic : chercheurs d’alignement automatisés (PGR 0.97)
14 avril — Dans le cadre du programme Anthropic Fellows, une expérience originale : peut-on utiliser Claude Opus 4.6 pour accélérer la recherche sur l’alignement ?
Le problème de supervision « faible vers fort » (weak-to-strong supervision) est un proxy du défi à venir : comment superviser des modèles plus intelligents que nous ? L’expérience utilise un modèle fort (Qwen 3-4B-Base) et un modèle faible comme « enseignant » (Qwen 1.5-0.5B-Chat). La métrique performance gap recovered (PGR) mesure dans quelle mesure le modèle fort dépasse les limites du faible enseignant.
Dispositif : 9 copies de Claude Opus 4.6 équipées d’outils (bac à sable, forum partagé, stockage, serveur de score) travaillent en parallèle pendant 5 jours. Chaque instance reçoit un point de départ légèrement différent pour encourager la diversité des approches.
| Indicateur | Valeur |
|---|---|
| Baseline humain (7 jours, 4 méthodes) | PGR 0.23 |
| Chercheurs automatisés après 5 jours (800h cumulées) | PGR 0.97 |
| Coût total | ~18 000 /heure par instance) |
| Généralisation maths | PGR 0.94 |
| Généralisation code | PGR 0.47 (double du baseline) |
| Test en production (Claude Sonnet 4) | Pas d’amélioration significative |
Les chercheurs précisent que ce résultat ne signifie pas que Claude est un « scientifique de l’alignement généraliste » — le problème choisi est exceptionnellement bien adapté à l’automatisation (mesure objective unique). Mais l’expérience démontre que Claude peut multiplier la cadence d’expérimentation en alignement, et que la diversité des points de départ est clé. Le code et les données sont disponibles en open source.
🔗 Blog Anthropic — Automated Alignment Researchers
Apprentissage subliminal dans les LLMs publié dans Nature
15 avril — Un article de recherche co-signé par Anthropic et Owain Evans a été publié dans la revue Nature sur le phénomène d’apprentissage subliminal (subliminal learning) des LLMs.
“Research we co-authored on subliminal learning—how LLMs can pass on traits like preferences or misalignment through hidden signals in data—was published today in Nature.”
🇫🇷 Des recherches que nous avons co-rédigées sur l’apprentissage subliminal — comment les LLMs peuvent transmettre des traits comme des préférences ou un désalignement via des signaux cachés dans les données — ont été publiées aujourd’hui dans Nature. — @AnthropicAI sur X
Le papier démontre que les LLMs peuvent transmettre des traits (comme « aimer les hiboux ») à travers des données en apparence neutres (par exemple, des séquences de nombres sans relation avec le trait). Ce phénomène de transmission cachée pose des questions importantes pour la sécurité : un modèle pourrait propager des préférences ou un désalignement à travers des données d’entraînement sans que cela soit détectable par inspection directe. Un preprint avait été publié en juillet 2025.
🔗 Article Nature — Subliminal Learning
GPT-5.4-Cyber et extension du programme TAC
14 avril — OpenAI annonce l’expansion de son programme Trusted Access for Cyber (TAC) à des milliers de défenseurs individuels vérifiés et des centaines d’équipes responsables de la protection de logiciels critiques.
Un nouveau modèle, GPT-5.4-Cyber, est désormais accessible aux utilisateurs des niveaux les plus élevés du programme. Il s’agit d’une variante de GPT-5.4 optimisée pour la cybersécurité défensive, avec un seuil de refus abaissé pour les usages légitimes et une capacité exclusive de reverse engineering binaire (analyse de logiciels compilés sans accès au code source).
Le programme TAC opère en trois niveaux :
- Utilisateurs individuels : Vérification d’identité sur chatgpt.com/cyber
- Entreprises : Accès équipe via représentant OpenAI
- Niveaux supérieurs (accès à GPT-5.4-Cyber) : Authentification renforcée + expression d’intérêt
Codex Security, lancé début 2026, a déjà contribué à corriger plus de 3 000 vulnérabilités critiques et élevées.
Gemini Personal Intelligence : déploiement mondial
15 avril — La fonctionnalité Personal Intelligence de l’application Gemini s’étend à l’international. Jusqu’alors limitée aux États-Unis, elle est désormais accessible aux abonnés Google AI Ultra, Pro et Plus du monde entier, avec un déploiement vers les utilisateurs gratuits prévu prochainement.
Personal Intelligence permet à Gemini de fournir des réponses personnalisées et contextuelles en se connectant aux applications Google de l’utilisateur : Search, Gmail, Google Photos et YouTube. Google a également annoncé l’arrivée de Personal Intelligence dans Google Chrome dans le courant de la semaine.
Mistral Connectors MCP dans Studio (Public Preview)
15 avril — Mistral AI lance les Connectors dans Mistral Studio en accès anticipé public (Public Preview), permettant de connecter des sources de données d’entreprise via le protocole MCP.
Un connecteur encapsule une intégration en entité réutilisable basée sur MCP. Une fois enregistré, il est gouverné et monitoré dans Studio, et devient un outil natif pour toute conversation, agent ou flux de travail.
| Fonctionnalité | Détail |
|---|---|
| MCPs intégrés et personnalisés | Disponibles pour toutes les requêtes de modèles et d’agents |
| Appel direct d’outils | Contrôle précis sur quand et comment les outils sont invoqués |
| Validation humaine dans la boucle | Flux d’approbation configurable avant l’exécution des outils |
| Accès programmatique | Création, modification, listage et suppression de connecteurs via l’API |
| Registre centralisé | Disponible dans toutes les apps Mistral (Le Chat, AI Studio, Vibe prochainement) |
Intégrations supportées : CRM, bases de connaissances, outils de productivité, GitHub, recherche web.
🔗 Annonce Mistral — Connectors
Premier spot publicitaire automobile entièrement produit par IA
15 avril — Luma Agents a alimenté le premier spot publicitaire Mazda entièrement produit par IA. L’agence créative indépendante Boundless (Johannesburg) a utilisé Luma pour créer une campagne réunissant plusieurs générations de la MX-5 et des décennies de storytelling de la marque. Délai total du concept jusqu’à l’approbation finale : moins de deux semaines.
Luma cite ce cas comme exemple des flux de travail créatifs natifs à l’IA : production plus rapide, sans compromis sur la vision créative.
🔗 Luma Labs — Boundless × Mazda
Annonces mineures
Kling AI Skill (15 avril) — Kling lance une encapsulation one-stop de ses API pour une intégration directe dans les agents IA. Les agents peuvent accéder à la génération Text/Image-to-Video, génération d’images 4K et cohérence inter-scènes, sans configuration complexe. Compatible avec Claude Code, Cursor, Codex, Copilot. 🔗 Documentation Kling AI Skill
Qwen dans OpenCode (15 avril) — Qwen3.6-Plus et Qwen3.5-Plus sont désormais disponibles dans l’outil de coding OpenCode. Qwen3.5-Plus est 3x moins cher que Qwen3.6-Plus, les deux modèles supportent les images et proposent la rétention zéro de données. 🔗 Tweet @Alibaba_Qwen
Copilot Cloud Agent — activation sélective (15 avril) — Les admins GitHub Enterprise peuvent désormais activer le Copilot Cloud Agent de façon sélective par organisation via les propriétés personnalisées (custom properties). Trois nouveaux endpoints REST permettent de gérer cette politique par API. 🔗 Changelog GitHub
Ce que ça signifie
La journée du 15 avril illustre une convergence : les grands acteurs équipent leurs environnements de développement d’une infrastructure agentique standardisée. Claude Code Desktop, les Agents SDK OpenAI et Mistral Connectors partagent la même logique — orchestrer plusieurs agents en parallèle, les doter de primitives (MCP, AGENTS.md, shell, fichiers) et leur offrir un environnement d’exécution isolé.
L’annonce la plus structurante reste le redesign Claude Code Desktop : la sidebar de sessions et le side chat changent la façon de travailler avec plusieurs agents simultanément, un usage qui devient progressivement la norme pour les développeurs qui s’appuient sur l’IA.
Côté recherche, la publication Nature sur l’apprentissage subliminal et l’expérience des chercheurs d’alignement automatisés (PGR 0.97 pour 18 000 $) signalent qu’Anthropic investit parallèlement dans la compréhension des risques à long terme — un équilibre entre productivité immédiate et sécurité structurelle.
Sources
- Blog Claude — Redesigning Claude Code on desktop
- CHANGELOG Claude Code (GitHub)
- Anthropic — Automated Alignment Researchers
- Nature — Subliminal Learning dans les LLMs
- OpenAI — The Next Evolution of the Agents SDK
- OpenAI — Scaling Trusted Access for Cyber Defense
- blog.google — Gemini 3.1 Flash TTS
- blog.google — Gemini App pour macOS
- Mistral — Connectors MCP
- Luma Labs — Boundless × Mazda
- Kling AI Skill documentation
- GitHub Changelog — Copilot Cloud Agent custom properties