Rechercher

Claude intègre Figma/Canva sur mobile et Claude Code démarre 2,8x plus vite, GitHub Copilot change sa politique données

Claude intègre Figma/Canva sur mobile et Claude Code démarre 2,8x plus vite, GitHub Copilot change sa politique données

Les 25 et 26 mars apportent plusieurs annonces structurantes côté Anthropic : Claude intègre Figma, Canva et Amplitude comme outils de travail directement depuis mobile, et Claude Code voit son démarrage accéléré de 2,8x grâce à 60 jours d’optimisations Bun. GitHub Copilot modifie sa politique d’utilisation des données d’interaction avec un opt-out à activer avant le 24 avril. Google DeepMind lance Lyria 3 Pro avec une génération musicale portée à 3 minutes, et NVIDIA fonde la Nemotron Coalition à GTC 2026.


Claude : outils de travail sur mobile (Figma, Canva, Amplitude)

25 mars — Claude intègre désormais trois outils de travail accessibles directement depuis l’application mobile : Figma, Canva et Amplitude. Les utilisateurs peuvent ainsi piloter des workflows design, création et analyse depuis leur téléphone, sans quitter l’interface Claude.

L’annonce sur X, accompagnée d’une vidéo de démonstration, a généré 1,9 million de vues en quelques heures — signe que l’intégration d’outils professionnels dans l’interface mobile répond à une attente forte.

🔗 Annonce @claudeai sur X


Claude Code : démarrage 2,8x plus rapide, Agent SDK 5,1x

24 mars — Après 60 jours d’optimisations menées par Jarred Sumner (créateur de Bun, acquis par Anthropic en décembre 2025), Claude Code démarre désormais 2,8x plus vite, et l’Agent SDK affiche des performances 5,1x supérieures.

Ces gains sont le fruit d’un travail de bas niveau sur le runtime Bun intégré à Claude Code — optimisations du démarrage, de la gestion mémoire et du temps de réponse initial. Reposté par Brian Cherny (@bcherny, équipe Claude Code), ce thread technique illustre concrètement ce qu’apporte l’intégration de Bun au cœur de l’outillage Claude.

🔗 Thread @jarredsumner sur X


GitHub Copilot : opt-out données d’interaction avant le 24 avril

25 mars — Mario Rodriguez, directeur produit de GitHub, annonce une mise à jour de la politique d’utilisation des données d’interaction de Copilot. À partir du 24 avril 2026, GitHub utilisera les données d’interaction des utilisateurs Copilot Free, Pro et Pro+ — entrées, sorties, extraits de code et contexte associé — pour entraîner et améliorer ses modèles IA.

Les utilisateurs concernés peuvent désactiver ce partage via les paramètres de leur compte avant cette date. Les abonnés Copilot Business et Copilot Enterprise ne sont pas affectés par ce changement — leurs données restent soumises aux accords contractuels existants qui excluent l’entraînement.

PlanConcerné par ce changementOpt-out disponible
Copilot FreeOuiOui
Copilot ProOuiOui
Copilot Pro+OuiOui
Copilot BusinessNon
Copilot EnterpriseNon

Le point de bascule est le 24 avril : les utilisateurs qui n’ont pas désactivé le partage avant cette date commenceront à contribuer aux données d’entraînement.

🔗 Mise à jour politique données GitHub Copilot 🔗 Annonce sur X


Lyria 3 Pro : pistes musicales jusqu’à 3 minutes avec architecture musicale

25 mars — Google DeepMind lance Lyria 3 Pro, une version avancée du modèle de génération musicale Lyria 3 sorti le mois précédent. La nouveauté principale : la capacité à générer des pistes jusqu’à 3 minutes, contre 30 secondes pour la génération précédente — soit un facteur 6.

Le modèle comprend désormais l’architecture musicale (musical architecture) — intros, couplets, refrains, ponts — ce qui permet de produire des morceaux avec des transitions cohérentes et des structures élaborées. Les prompts acceptent le texte, les images ou les vidéos comme point de départ.

PlateformeAccèsStatut
Application GeminiAbonnés payantsDisponible
Google AI Studio + API GeminiDéveloppeursDisponible avec Lyria RealTime
Vertex AIEntreprisesPreview publique
Google VidsWorkspace + AI Pro/UltraDéploiement semaine du 25 mars
ProducerAIGratuit et payantExpérience agentique pour musiciens

Lyria 3 Pro a été utilisé par le producteur Yung Spielburg pour le court-métrage Google DeepMind “Dear Upstairs Neighbors”, et une collaboration est annoncée avec le DJ François K pour un morceau à venir.

🔗 Blog officiel Google — Lyria 3 Pro 🔗 Annonce sur X


NVIDIA Nemotron Coalition : modèles fondamentaux ouverts de niveau frontier

25 mars — À l’occasion de NVIDIA GTC 2026, Jensen Huang annonce la création de la NVIDIA Nemotron Coalition, une coalition mondiale de constructeurs de modèles dédiée au développement de modèles fondamentaux ouverts de niveau frontier (frontier open foundation models).

Le premier projet concret de la coalition sera un modèle de base codéveloppé par Mistral AI et NVIDIA, avec des membres contribuant aux données, évaluations et expertise domaine. Les panélistes de la session GTC incluent Mira Murati (Thinking Machines Lab), Aravind Srinivas (Perplexity), Arthur Mensch (Mistral), Robin Rombach (Black Forest Labs), ainsi que des représentants de Cursor et d’Ai2.

Quelques chiffres mis en avant lors de l’événement :

  • NVIDIA est désormais la plus grande organisation sur Hugging Face, avec environ 4 000 membres
  • Les modèles Nemotron ont été téléchargés plus de 45 millions de fois

“Proprietary versus open is not a thing. It’s proprietary and open.”

🇫🇷 La distinction propriétaire versus ouvert n’existe pas vraiment. C’est propriétaire et ouvert.Jensen Huang, NVIDIA GTC 2026

🔗 Blog NVIDIA — The Future of AI Is Open and Proprietary


OpenAI : les coulisses du Model Spec et les évaluations associées

25 mars — OpenAI publie une explication détaillée de sa démarche autour du Model Spec — le cadre public qui définit comment ses modèles sont censés se comporter. Ce billet, signé par Jason Wolfe (chercheur OpenAI), en explique la philosophie, la structure et les mécanismes d’évolution.

Le Model Spec s’articule autour de plusieurs niveaux distincts :

NiveauDescription
Intentions et engagements publicsObjectifs de haut niveau : déploiement itératif, éviter les dommages graves
Chaîne de commandement (Chain of Command)Règles de résolution des conflits entre instructions OpenAI, développeurs et utilisateurs
Règles strictes (Hard rules)Limites non modifiables : risques catastrophiques, atteintes physiques, contenu illégal
Comportements par défautPoints de départ modifiables par les développeurs et utilisateurs
Aides à l’interprétationRègles de décision et exemples pour les cas ambigus

La distinction centrale : les règles strictes sont non contournables (niveau “root”), tandis que les comportements par défaut sont configurables — ce qui permet de maximiser la liberté des utilisateurs dans les limites de sécurité.

OpenAI argumente qu’une IA suffisamment avancée ne peut pas simplement déduire le bon comportement depuis des objectifs généraux comme “être utile et sûr” : ces formulations sont trop dépendantes du contexte et impliquent des arbitrages de valeurs. Le Model Spec sert à la fois de cible interne, d’outil de transparence et de mécanisme de coordination entre équipes.

En parallèle, OpenAI publie les Model Spec Evals — une suite d’évaluations de scénarios qui tente de couvrir les affirmations du Model Spec avec des exemples représentatifs, pour mesurer les écarts entre comportement réel du modèle et spécification.

🔗 Inside our approach to the Model Spec 🔗 Annonce sur X


Genspark Realtime Voice : assistant vocal mains libres

25 mars — Genspark lance Realtime Voice, un assistant vocal temps réel entièrement mains libres. Le cas d’usage mis en avant lors du lancement : l’utilisation en voiture pendant le trajet domicile-travail.

Les fonctionnalités annoncées incluent la vérification de l’agenda, l’envoi d’e-mails et messages, la recherche d’informations et la création de playlists de trajet. L’assistant peut également générer des présentations (slides), effectuer des recherches approfondies (deep research) et analyser des données — entièrement à la voix.

🔗 Annonce sur X


OpenAI Safety Bug Bounty : signalements de risques IA

25 mars — OpenAI lance un programme de bug bounty dédié à la sécurité IA, distinct du programme de sécurité informatique classique déjà existant. Ce nouveau programme accepte les signalements de risques d’abus qui ne correspondent pas forcément à des vulnérabilités logicielles traditionnelles.

Catégorie en périmètreExemples
Risques agentiques (dont MCP)Injection de prompt tierce, exfiltration via agent, actions non autorisées à grande échelle
Informations propriétaires OpenAIGénération révélant des informations de raisonnement propriétaires
Intégrité des comptes et plateformesContournement des contrôles anti-automatisation, manipulation des signaux de confiance

Les jailbreaks classiques restent hors périmètre. OpenAI précise également mener des campagnes privées ponctuelles sur des types de dommages spécifiques — par exemple les contenus bio-risque dans ChatGPT Agent et GPT-5.

🔗 Introducing the OpenAI Safety Bug Bounty program


Codex Creator Challenge : concours étudiant avec 10 000 $ en crédits

25 mars — OpenAI et Handshake lancent le Codex Creator Challenge, un concours destiné aux étudiants pour créer des projets réels avec Codex. À la clé : 10 000 $ en crédits API OpenAI. Le défi invite les étudiants à expérimenter les outils Codex et à construire des applications concrètes.

🔗 Tweet @OpenAIDevs


ElevenLabs : Guardrails 2.0 dans ElevenAgents, certifié AIUC-1

24 mars — ElevenLabs déploie Guardrails 2.0 dans sa plateforme ElevenAgents. Cette couche de sécurité permet de contrôler le comportement des agents en production avec des politiques métier personnalisées ou des protections pré-configurées : maintien dans le sujet (on-topic), cohérence de marque (on-brand), résistance à la manipulation.

Guardrails 2.0 est certifié AIUC-1 (AI Use Case standard) et inclut des fonctionnalités de protection des données, de rédaction de l’historique des conversations et de monitoring post-déploiement.

🔗 Annonce sur X


PrismAudio : modèle vidéo-vers-audio open source par Tongyi Lab (Alibaba)

24 mars — Tongyi Lab d’Alibaba publie PrismAudio, un modèle vidéo-vers-audio (Video-to-Audio). Contrairement aux approches V2A (Video-to-Audio) classiques qui optimisent l’ensemble avec une seule fonction de perte, PrismAudio adopte une architecture “Decomposed Multi-CoT” avec trois têtes spécialisées séparées — chacune dédiée à un aspect distinct de la génération audio.

Le modèle est entraîné avec Multi-Dimensional RL et Fast-GRPO pour aligner la génération audio sur les préférences humaines. Les ressources (modèle, démo, paper arXiv) sont publiées via HuggingFace, ModelScope et une page projet dédiée.

🔗 Annonce sur X


Claude Code v2.1.83 : gestion centralisée des settings Enterprise

25 mars — La version 2.1.83 de Claude Code introduit le répertoire drop-in managed-settings.d/, destiné aux administrateurs Enterprise. Ce répertoire permet aux organisations de gérer les settings Claude Code de façon centralisée, en déposant des fichiers de configuration qui s’appliquent à tous les postes du déploiement.

🔗 CHANGELOG Claude Code


Kling AI Team Plan : collaboration jusqu’à 15 membres

24 mars — Kling AI lance le Team Plan, un plan collaboratif permettant à des équipes de jusqu’à 15 membres de travailler ensemble sur la plateforme. Le plan inclut des assets partagés et un usage commercial des créations.

🔗 Annonce @Kling_ai sur X


Manus Desktop : crédits divisés par deux jusqu’au 30 mars

24 mars — Manus propose une promotion temporaire sur son application Desktop : du 24 au 30 mars 2026, chaque tâche exécutée consomme 50 % moins de crédits. Les crédits existants valent donc le double pour toutes les tâches réalisées via Manus Desktop pendant cette période.

🔗 Annonce sur X


NVIDIA donne son driver DRA GPU à la communauté Kubernetes

24 mars — En marge de NVIDIA GTC 2026, NVIDIA annonce le don à la communauté Kubernetes de son driver Dynamic Resource Allocation (DRA) pour les GPUs. Cette contribution s’inscrit dans l’engagement open source de NVIDIA et facilite l’allocation dynamique des ressources GPU dans les environnements Kubernetes.

🔗 Blog NVIDIA — AI Future Open and Proprietary


Ce que ça signifie

Les deux annonces Anthropic de cette période sont complémentaires : l’intégration mobile de Figma, Canva et Amplitude rapproche Claude des workflows professionnels quotidiens, tandis que les gains de démarrage de Claude Code (2,8x) et de l’Agent SDK (5,1x) améliorent concrètement l’expérience des développeurs qui l’utilisent en continu. Ces deux axes — usage mobile grand public et performance développeur — illustrent la double trajectoire d’Anthropic.

La décision de GitHub Copilot sur les données d’interaction est la plus impactante pour les développeurs individuels : pour la première fois, les utilisateurs des plans grand public (Free, Pro, Pro+) voient leurs interactions potentiellement utilisées pour l’entraînement. L’opt-out existe mais doit être activé avant le 24 avril — ce délai court mérite d’être noté.

La Nemotron Coalition de NVIDIA est un signal fort sur la stratégie open source de l’industrie. En rassemblant Mistral, Black Forest Labs, Cursor et d’autres sous une coalition formelle pour développer des modèles de niveau frontier, NVIDIA positionne l’open source non plus comme une alternative aux modèles propriétaires, mais comme une catégorie complémentaire à part entière. La phrase de Jensen Huang — “proprietary and open”, pas “versus” — résume bien ce repositionnement.

Lyria 3 Pro confirme que la génération musicale progresse vers des formats utilisables en production : 3 minutes avec une structure cohérente (intros, couplets, refrains) change la nature du cas d’usage, passant des extraits expérimentaux à des morceaux complets. La disponibilité sur plusieurs plateformes Google dès la semaine du lancement accélère l’adoption.

La publication du Model Spec Evals par OpenAI — une suite d’évaluations mesurant les écarts entre comportement modèle et spécification écrite — est notable : c’est l’une des premières tentatives publiques de mesurer objectivement l’alignement d’un modèle avec ses propres règles de conduite.


Sources