Les 25 et 26 mars apportent plusieurs annonces structurantes côté Anthropic : Claude intègre Figma, Canva et Amplitude comme outils de travail directement depuis mobile, et Claude Code voit son démarrage accéléré de 2,8x grâce à 60 jours d’optimisations Bun. GitHub Copilot modifie sa politique d’utilisation des données d’interaction avec un opt-out à activer avant le 24 avril. Google DeepMind lance Lyria 3 Pro avec une génération musicale portée à 3 minutes, et NVIDIA fonde la Nemotron Coalition à GTC 2026.
Claude : outils de travail sur mobile (Figma, Canva, Amplitude)
25 mars — Claude intègre désormais trois outils de travail accessibles directement depuis l’application mobile : Figma, Canva et Amplitude. Les utilisateurs peuvent ainsi piloter des workflows design, création et analyse depuis leur téléphone, sans quitter l’interface Claude.
L’annonce sur X, accompagnée d’une vidéo de démonstration, a généré 1,9 million de vues en quelques heures — signe que l’intégration d’outils professionnels dans l’interface mobile répond à une attente forte.
Claude Code : démarrage 2,8x plus rapide, Agent SDK 5,1x
24 mars — Après 60 jours d’optimisations menées par Jarred Sumner (créateur de Bun, acquis par Anthropic en décembre 2025), Claude Code démarre désormais 2,8x plus vite, et l’Agent SDK affiche des performances 5,1x supérieures.
Ces gains sont le fruit d’un travail de bas niveau sur le runtime Bun intégré à Claude Code — optimisations du démarrage, de la gestion mémoire et du temps de réponse initial. Reposté par Brian Cherny (@bcherny, équipe Claude Code), ce thread technique illustre concrètement ce qu’apporte l’intégration de Bun au cœur de l’outillage Claude.
GitHub Copilot : opt-out données d’interaction avant le 24 avril
25 mars — Mario Rodriguez, directeur produit de GitHub, annonce une mise à jour de la politique d’utilisation des données d’interaction de Copilot. À partir du 24 avril 2026, GitHub utilisera les données d’interaction des utilisateurs Copilot Free, Pro et Pro+ — entrées, sorties, extraits de code et contexte associé — pour entraîner et améliorer ses modèles IA.
Les utilisateurs concernés peuvent désactiver ce partage via les paramètres de leur compte avant cette date. Les abonnés Copilot Business et Copilot Enterprise ne sont pas affectés par ce changement — leurs données restent soumises aux accords contractuels existants qui excluent l’entraînement.
| Plan | Concerné par ce changement | Opt-out disponible |
|---|---|---|
| Copilot Free | Oui | Oui |
| Copilot Pro | Oui | Oui |
| Copilot Pro+ | Oui | Oui |
| Copilot Business | Non | — |
| Copilot Enterprise | Non | — |
Le point de bascule est le 24 avril : les utilisateurs qui n’ont pas désactivé le partage avant cette date commenceront à contribuer aux données d’entraînement.
🔗 Mise à jour politique données GitHub Copilot 🔗 Annonce sur X
Lyria 3 Pro : pistes musicales jusqu’à 3 minutes avec architecture musicale
25 mars — Google DeepMind lance Lyria 3 Pro, une version avancée du modèle de génération musicale Lyria 3 sorti le mois précédent. La nouveauté principale : la capacité à générer des pistes jusqu’à 3 minutes, contre 30 secondes pour la génération précédente — soit un facteur 6.
Le modèle comprend désormais l’architecture musicale (musical architecture) — intros, couplets, refrains, ponts — ce qui permet de produire des morceaux avec des transitions cohérentes et des structures élaborées. Les prompts acceptent le texte, les images ou les vidéos comme point de départ.
| Plateforme | Accès | Statut |
|---|---|---|
| Application Gemini | Abonnés payants | Disponible |
| Google AI Studio + API Gemini | Développeurs | Disponible avec Lyria RealTime |
| Vertex AI | Entreprises | Preview publique |
| Google Vids | Workspace + AI Pro/Ultra | Déploiement semaine du 25 mars |
| ProducerAI | Gratuit et payant | Expérience agentique pour musiciens |
Lyria 3 Pro a été utilisé par le producteur Yung Spielburg pour le court-métrage Google DeepMind “Dear Upstairs Neighbors”, et une collaboration est annoncée avec le DJ François K pour un morceau à venir.
🔗 Blog officiel Google — Lyria 3 Pro 🔗 Annonce sur X
NVIDIA Nemotron Coalition : modèles fondamentaux ouverts de niveau frontier
25 mars — À l’occasion de NVIDIA GTC 2026, Jensen Huang annonce la création de la NVIDIA Nemotron Coalition, une coalition mondiale de constructeurs de modèles dédiée au développement de modèles fondamentaux ouverts de niveau frontier (frontier open foundation models).
Le premier projet concret de la coalition sera un modèle de base codéveloppé par Mistral AI et NVIDIA, avec des membres contribuant aux données, évaluations et expertise domaine. Les panélistes de la session GTC incluent Mira Murati (Thinking Machines Lab), Aravind Srinivas (Perplexity), Arthur Mensch (Mistral), Robin Rombach (Black Forest Labs), ainsi que des représentants de Cursor et d’Ai2.
Quelques chiffres mis en avant lors de l’événement :
- NVIDIA est désormais la plus grande organisation sur Hugging Face, avec environ 4 000 membres
- Les modèles Nemotron ont été téléchargés plus de 45 millions de fois
“Proprietary versus open is not a thing. It’s proprietary and open.”
🇫🇷 La distinction propriétaire versus ouvert n’existe pas vraiment. C’est propriétaire et ouvert. — Jensen Huang, NVIDIA GTC 2026
🔗 Blog NVIDIA — The Future of AI Is Open and Proprietary
OpenAI : les coulisses du Model Spec et les évaluations associées
25 mars — OpenAI publie une explication détaillée de sa démarche autour du Model Spec — le cadre public qui définit comment ses modèles sont censés se comporter. Ce billet, signé par Jason Wolfe (chercheur OpenAI), en explique la philosophie, la structure et les mécanismes d’évolution.
Le Model Spec s’articule autour de plusieurs niveaux distincts :
| Niveau | Description |
|---|---|
| Intentions et engagements publics | Objectifs de haut niveau : déploiement itératif, éviter les dommages graves |
| Chaîne de commandement (Chain of Command) | Règles de résolution des conflits entre instructions OpenAI, développeurs et utilisateurs |
| Règles strictes (Hard rules) | Limites non modifiables : risques catastrophiques, atteintes physiques, contenu illégal |
| Comportements par défaut | Points de départ modifiables par les développeurs et utilisateurs |
| Aides à l’interprétation | Règles de décision et exemples pour les cas ambigus |
La distinction centrale : les règles strictes sont non contournables (niveau “root”), tandis que les comportements par défaut sont configurables — ce qui permet de maximiser la liberté des utilisateurs dans les limites de sécurité.
OpenAI argumente qu’une IA suffisamment avancée ne peut pas simplement déduire le bon comportement depuis des objectifs généraux comme “être utile et sûr” : ces formulations sont trop dépendantes du contexte et impliquent des arbitrages de valeurs. Le Model Spec sert à la fois de cible interne, d’outil de transparence et de mécanisme de coordination entre équipes.
En parallèle, OpenAI publie les Model Spec Evals — une suite d’évaluations de scénarios qui tente de couvrir les affirmations du Model Spec avec des exemples représentatifs, pour mesurer les écarts entre comportement réel du modèle et spécification.
🔗 Inside our approach to the Model Spec 🔗 Annonce sur X
Genspark Realtime Voice : assistant vocal mains libres
25 mars — Genspark lance Realtime Voice, un assistant vocal temps réel entièrement mains libres. Le cas d’usage mis en avant lors du lancement : l’utilisation en voiture pendant le trajet domicile-travail.
Les fonctionnalités annoncées incluent la vérification de l’agenda, l’envoi d’e-mails et messages, la recherche d’informations et la création de playlists de trajet. L’assistant peut également générer des présentations (slides), effectuer des recherches approfondies (deep research) et analyser des données — entièrement à la voix.
OpenAI Safety Bug Bounty : signalements de risques IA
25 mars — OpenAI lance un programme de bug bounty dédié à la sécurité IA, distinct du programme de sécurité informatique classique déjà existant. Ce nouveau programme accepte les signalements de risques d’abus qui ne correspondent pas forcément à des vulnérabilités logicielles traditionnelles.
| Catégorie en périmètre | Exemples |
|---|---|
| Risques agentiques (dont MCP) | Injection de prompt tierce, exfiltration via agent, actions non autorisées à grande échelle |
| Informations propriétaires OpenAI | Génération révélant des informations de raisonnement propriétaires |
| Intégrité des comptes et plateformes | Contournement des contrôles anti-automatisation, manipulation des signaux de confiance |
Les jailbreaks classiques restent hors périmètre. OpenAI précise également mener des campagnes privées ponctuelles sur des types de dommages spécifiques — par exemple les contenus bio-risque dans ChatGPT Agent et GPT-5.
🔗 Introducing the OpenAI Safety Bug Bounty program
Codex Creator Challenge : concours étudiant avec 10 000 $ en crédits
25 mars — OpenAI et Handshake lancent le Codex Creator Challenge, un concours destiné aux étudiants pour créer des projets réels avec Codex. À la clé : 10 000 $ en crédits API OpenAI. Le défi invite les étudiants à expérimenter les outils Codex et à construire des applications concrètes.
ElevenLabs : Guardrails 2.0 dans ElevenAgents, certifié AIUC-1
24 mars — ElevenLabs déploie Guardrails 2.0 dans sa plateforme ElevenAgents. Cette couche de sécurité permet de contrôler le comportement des agents en production avec des politiques métier personnalisées ou des protections pré-configurées : maintien dans le sujet (on-topic), cohérence de marque (on-brand), résistance à la manipulation.
Guardrails 2.0 est certifié AIUC-1 (AI Use Case standard) et inclut des fonctionnalités de protection des données, de rédaction de l’historique des conversations et de monitoring post-déploiement.
PrismAudio : modèle vidéo-vers-audio open source par Tongyi Lab (Alibaba)
24 mars — Tongyi Lab d’Alibaba publie PrismAudio, un modèle vidéo-vers-audio (Video-to-Audio). Contrairement aux approches V2A (Video-to-Audio) classiques qui optimisent l’ensemble avec une seule fonction de perte, PrismAudio adopte une architecture “Decomposed Multi-CoT” avec trois têtes spécialisées séparées — chacune dédiée à un aspect distinct de la génération audio.
Le modèle est entraîné avec Multi-Dimensional RL et Fast-GRPO pour aligner la génération audio sur les préférences humaines. Les ressources (modèle, démo, paper arXiv) sont publiées via HuggingFace, ModelScope et une page projet dédiée.
Claude Code v2.1.83 : gestion centralisée des settings Enterprise
25 mars — La version 2.1.83 de Claude Code introduit le répertoire drop-in managed-settings.d/, destiné aux administrateurs Enterprise. Ce répertoire permet aux organisations de gérer les settings Claude Code de façon centralisée, en déposant des fichiers de configuration qui s’appliquent à tous les postes du déploiement.
Kling AI Team Plan : collaboration jusqu’à 15 membres
24 mars — Kling AI lance le Team Plan, un plan collaboratif permettant à des équipes de jusqu’à 15 membres de travailler ensemble sur la plateforme. Le plan inclut des assets partagés et un usage commercial des créations.
Manus Desktop : crédits divisés par deux jusqu’au 30 mars
24 mars — Manus propose une promotion temporaire sur son application Desktop : du 24 au 30 mars 2026, chaque tâche exécutée consomme 50 % moins de crédits. Les crédits existants valent donc le double pour toutes les tâches réalisées via Manus Desktop pendant cette période.
NVIDIA donne son driver DRA GPU à la communauté Kubernetes
24 mars — En marge de NVIDIA GTC 2026, NVIDIA annonce le don à la communauté Kubernetes de son driver Dynamic Resource Allocation (DRA) pour les GPUs. Cette contribution s’inscrit dans l’engagement open source de NVIDIA et facilite l’allocation dynamique des ressources GPU dans les environnements Kubernetes.
🔗 Blog NVIDIA — AI Future Open and Proprietary
Ce que ça signifie
Les deux annonces Anthropic de cette période sont complémentaires : l’intégration mobile de Figma, Canva et Amplitude rapproche Claude des workflows professionnels quotidiens, tandis que les gains de démarrage de Claude Code (2,8x) et de l’Agent SDK (5,1x) améliorent concrètement l’expérience des développeurs qui l’utilisent en continu. Ces deux axes — usage mobile grand public et performance développeur — illustrent la double trajectoire d’Anthropic.
La décision de GitHub Copilot sur les données d’interaction est la plus impactante pour les développeurs individuels : pour la première fois, les utilisateurs des plans grand public (Free, Pro, Pro+) voient leurs interactions potentiellement utilisées pour l’entraînement. L’opt-out existe mais doit être activé avant le 24 avril — ce délai court mérite d’être noté.
La Nemotron Coalition de NVIDIA est un signal fort sur la stratégie open source de l’industrie. En rassemblant Mistral, Black Forest Labs, Cursor et d’autres sous une coalition formelle pour développer des modèles de niveau frontier, NVIDIA positionne l’open source non plus comme une alternative aux modèles propriétaires, mais comme une catégorie complémentaire à part entière. La phrase de Jensen Huang — “proprietary and open”, pas “versus” — résume bien ce repositionnement.
Lyria 3 Pro confirme que la génération musicale progresse vers des formats utilisables en production : 3 minutes avec une structure cohérente (intros, couplets, refrains) change la nature du cas d’usage, passant des extraits expérimentaux à des morceaux complets. La disponibilité sur plusieurs plateformes Google dès la semaine du lancement accélère l’adoption.
La publication du Model Spec Evals par OpenAI — une suite d’évaluations mesurant les écarts entre comportement modèle et spécification écrite — est notable : c’est l’une des premières tentatives publiques de mesurer objectivement l’alignement d’un modèle avec ses propres règles de conduite.
Sources
- Mise à jour politique données GitHub Copilot
- Tweet @github — politique données
- Blog Google — Lyria 3 Pro
- Tweet @GoogleAI — Lyria 3 Pro
- Blog NVIDIA — The Future of AI Is Open and Proprietary
- Tweet @NVIDIAAI — Cohere + IA souveraine GTC
- OpenAI — Inside our approach to the Model Spec
- Tweet @OpenAI — Model Spec
- OpenAI — Safety Bug Bounty program
- Tweet @OpenAIDevs — Codex Creator Challenge
- Tweet @genspark_ai — Realtime Voice
- Tweet @ElevenLabs — Guardrails 2.0
- Tweet @Ali_TongyiLab — PrismAudio
- Tweet @ManusAI — Manus Desktop promo
- Tweet @claudeai — Claude outils de travail mobile
- Thread @jarredsumner — Claude Code startup 2,8x / Agent SDK 5,1x
- CHANGELOG Claude Code — v2.1.83
- Tweet @Kling_ai — Team Plan