Le 17 mars 2026 s’inscrit sous le signe du GTC NVIDIA et de plusieurs lancements majeurs. OpenAI publie GPT-5.4 mini et nano, ses modèles compacts les plus capables à ce jour, qui approchent le modèle complet sur plusieurs benchmarks. La NVIDIA Nemotron Coalition prend de l’ampleur avec l’adhésion de Mistral AI et Perplexity. Perplexity ouvre simultanément Comet Enterprise avec une gouvernance MDM complète, Claude Code v2.1.77 double la limite de génération pour Opus 4.6, et GitHub, Anthropic, Google et OpenAI s’unissent pour financer la sécurité open source à hauteur de 12,5 millions de dollars.
GPT-5.4 mini et nano : les modèles compacts d’OpenAI
17 mars — OpenAI lance GPT-5.4 mini et GPT-5.4 nano, ses modèles compacts les plus performants à ce jour. Ces deux variantes apportent les capacités de GPT-5.4 dans des formats optimisés pour les charges de travail à fort volume, avec une latence réduite et un coût plus bas.
GPT-5.4 mini améliore significativement GPT-5 mini sur le code, le raisonnement, la compréhension multimodale et l’utilisation d’outils, tout en fonctionnant plus de deux fois plus vite. Il approche les performances du modèle GPT-5.4 complet sur plusieurs évaluations clés, notamment SWE-Bench Pro et OSWorld-Verified.
GPT-5.4 nano est la version la plus petite et la moins coûteuse de la famille GPT-5.4, conçue pour les tâches où la rapidité et le coût priment : classification, extraction de données, classement et sous-agents de code simples.
| Évaluation | GPT-5.4 | GPT-5.4 mini | GPT-5.4 nano | GPT-5 mini |
|---|---|---|---|---|
| SWE-Bench Pro (public) | 57,7 % | 54,4 % | 52,4 % | 45,7 % |
| Terminal-Bench 2.0 | 75,1 % | 60,0 % | 46,3 % | 38,2 % |
| Toolathlon | 54,6 % | 42,9 % | 35,5 % | 26,9 % |
| GPQA Diamond | 93,0 % | 88,0 % | 82,8 % | 81,6 % |
| OSWorld-Verified | 75,0 % | 72,1 % | 39,0 % | 42,0 % |
Les cas d’usage se déclinent en trois registres : les assistants de code (GPT-5.4 mini excelle dans les workflows de codage rapide, les boucles de débogage, la génération frontend), les sous-agents (dans Codex, GPT-5.4 peut déléguer des sous-tâches à GPT-5.4 mini en utilisant seulement 30 % du quota GPT-5.4), et le contrôle d’interface (computer use), où GPT-5.4 mini interprète rapidement les captures d’écran d’interfaces denses.
| Modèle | Disponibilité | Prix entrée | Prix sortie | Contexte |
|---|---|---|---|---|
| GPT-5.4 mini | API, Codex, ChatGPT Free/Go | 0,75 $/million tokens | 4,50 $/million tokens | 400 000 tokens |
| GPT-5.4 nano | API uniquement | 0,20 $/million tokens | 1,25 $/million tokens | — |
Dans ChatGPT, GPT-5.4 mini est accessible aux utilisateurs Free et Go via la fonctionnalité “Thinking” dans le menu +. Pour les plans payants, il sert de modèle de repli en cas de limite de débit de GPT-5.4 Thinking.
🔗 Introducing GPT-5.4 mini and nano
NVIDIA GTC 2026 : la Nemotron Coalition et Dynamo 1.0
La conférence GTC de NVIDIA, qui se tenait à partir du 16 mars, a été le catalyseur de plusieurs annonces majeures du secteur : formation d’une coalition ouverte autour des modèles frontier open source, sortie en production d’un système d’exploitation d’inférence, et annonce d’un blueprint de données pour l’IA physique.
Mistral rejoint la NVIDIA Nemotron Coalition
16 mars — Mistral AI annonce un partenariat stratégique avec NVIDIA pour co-développer des modèles d’IA frontier open source. Mistral devient membre fondateur de la NVIDIA Nemotron Coalition, combinant son architecture frontier avec l’infrastructure de calcul NVIDIA et ses outils de développement.
| Aspect | Détail |
|---|---|
| Rôle Mistral | Membre fondateur, architecture frontier + offre full-stack IA |
| Apport NVIDIA | Infrastructure GPU + outils de développement |
| Objectif | Co-développer des modèles ouverts de niveau frontier |
Perplexity rejoint également la coalition
16 mars — Perplexity annonce son adhésion à la même NVIDIA Nemotron Coalition. Points clés : Perplexity affine différents modèles ouverts pour chaque étape de son pipeline de réponse (analyse de requête, raisonnement, réponse finale). Le modèle Nemotron 3 Super (120 milliards de paramètres, architecture MoE) est désormais disponible dans la barre de recherche Perplexity, l’Agent API et Perplexity Computer.
🔗 Blog Perplexity – Nemotron Coalition 🔗 Annonce NVIDIA
Dynamo 1.0 : le système d’exploitation d’inférence passe en production
16 mars — NVIDIA annonce au GTC la mise en production de Dynamo 1.0, présenté comme le “système d’exploitation d’inférence” (inference operating system) pour les usines d’IA (AI factories). Dynamo booste les performances d’inférence sur les GPU Blackwell jusqu’à 7x par rapport aux déploiements non optimisés. Le passage à la v1.0 marque son entrée de la phase expérimentale en production industrielle.
Physical AI Data Factory Blueprint
16 mars — NVIDIA dévoile le Physical AI Data Factory Blueprint : une architecture de référence pour transformer le calcul accéléré en données d’entraînement haute qualité destinées à la robotique, aux agents de vision IA et aux véhicules autonomes. Ce blueprint permet aux entreprises de générer synthétiquement des données d’entraînement pour l’IA physique à grande échelle.
Cohere + NVIDIA : IA souveraine sur DGX Spark
16 mars — Cohere et NVIDIA s’associent pour développer une IA souveraine, sécurisée et efficace, annoncé également au GTC. Deux axes principaux : des modèles NVIDIA ecosystem-native (modèles personnalisés optimisés pour la dernière architecture NVIDIA, ciblant les workloads enterprise spécialisés) et North sur DGX Spark (la plateforme agentique North de Cohere sera disponible sur NVIDIA DGX Spark, en local et basse latence pour les données sensibles). Les secteurs cibles sont la finance, la santé et le secteur public.
🔗 Blog Cohere – IA souveraine NVIDIA
Perplexity Comet Enterprise : gouvernance MDM et intégration CrowdStrike
17 mars — Perplexity lance Comet Enterprise pour tous les abonnés Enterprise. Le navigateur IA passe en version entreprise avec une gouvernance de déploiement complète.
| Fonctionnalité | Description |
|---|---|
| Déploiement MDM | Installateur silencieux, déploiement sur des milliers de machines, logs d’audit |
| Télémétrie granulaire | Suivi par utilisateur |
| CrowdStrike Falcon | Protection anti-phishing, détection d’exfiltration (captures d’écran, téléchargements) |
| Intervention temps réel | Possible via l’intégration CrowdStrike |
| Confidentialité | Perplexity n’entraîne jamais ses modèles sur les données enterprise |
Parmi les premiers utilisateurs : des entreprises du classement Fortune, AWS, AlixPartners, Gunderson Dettmer et Bessemer Venture Partners. Les cas d’usage documentés couvrent la préparation de réunions client (actualités en temps réel), l’analyse de contrats SOW, les calculs financiers et la recherche sectorielle.
🔗 Blog Perplexity – Comet Enterprise
Claude Code v2.1.77 : 64k tokens par défaut pour Opus 4.6
17 mars — Claude Code v2.1.77 sort avec une augmentation significative des limites de génération et plusieurs corrections de bugs critiques.
| Modèle | Limite par défaut | Limite maximale |
|---|---|---|
| Claude Opus 4.6 | 64 000 tokens | 128 000 tokens |
| Claude Sonnet 4.6 | — | 128 000 tokens |
La limite par défaut pour Opus 4.6 double (de 32k à 64k tokens), permettant des réponses beaucoup plus longues sans configuration supplémentaire.
Nouvelles fonctionnalités :
allowReaddans les sandbox : nouveau paramètre de configuration filesystem permettant de ré-autoriser la lecture dans des zones couvertes par une règledenyRead. Utile pour les configurations de sécurité granulaires./copy N: la commande/copyaccepte désormais un index optionnel —/copy 2copie la deuxième réponse précédente de l’assistant sans naviguer dans l’historique.
Corrections notables :
- “Always Allow” sur les commandes bash composées : la règle était sauvegardée pour la chaîne complète (
cd src && npm test) au lieu de par sous-commande. Corrigé. - Auto-updater : démarrait des téléchargements parallèles lors d’ouvertures et fermetures répétées de la fenêtre, pouvant accumuler des dizaines de gigaoctets en mémoire. Corrigé.
--resumetronquant l’historique : une condition de course (race condition) entre les écritures d’extraction de mémoire et le transcript principal pouvait entraîner une troncature silencieuse. Corrigé.- Hooks
PreToolUsebypassant les règlesdeny: un hook retournant"allow"contournait les règles de permissiondeny, y compris les paramètres gérés par l’entreprise. Correction de sécurité importante.
Article technique : comment l’équipe Claude Code utilise les Skills
17 mars — Thariq (@trq212), ingénieur de l’équipe Claude Code chez Anthropic, publie “Lessons from Building Claude Code: How We Use Skills”, deuxième article de la série après “Seeing like an Agent” (27 février, 3,6 millions de vues).
L’article documente comment les Skills sont devenus l’un des points d’extension les plus utilisés de Claude Code — flexibles, faciles à maintenir, et permettant aux équipes de définir des workflows réutilisables directement dans leur environnement de développement. Boris Cherny (@bcherny), responsable de Claude Code, a relayé l’article en le qualifiant de “Really great writeup”. L’auteur annonce également la publication prochaine d’un skill iMessage en open source comme exemple concret.
“Using Skills well is a skill issue. I didn’t quite realize how much until I wrote this.”
🇫🇷 Bien utiliser les Skills, c’est une question de compétence. Je n’avais pas réalisé à quel point avant d’écrire cet article. — @trq212 sur X
Codex Security : pourquoi pas de rapport SAST
16 mars — OpenAI publie un article technique expliquant le choix de conception derrière Codex Security : pourquoi le système ne s’appuie pas sur l’analyse statique (SAST) comme point de départ.
L’approche repose sur quatre piliers : la lecture contextuelle (analyser le chemin de code complet avec le contexte du dépôt), le micro-fuzzing ciblé (réduire au plus petit fragment testable pour écrire des micro-fuzzers), le raisonnement sur les contraintes (utiliser un environnement Python avec z3-solver pour formaliser les problèmes complexes), et la validation en sandbox (distinguer “ceci pourrait être un problème” de “ceci est un problème” avec un PoC compilé). L’article illustre ces principes avec CVE-2024-29041 (Express), une redirection ouverte où des URL malformées contournaient les implémentations d’allowlist.
🔗 Why Codex Security Doesn’t Include a SAST Report
Gemini Personal Intelligence : expansion gratuite aux États-Unis
17 mars — Google étend Personal Intelligence à davantage d’utilisateurs gratuitement aux États-Unis. Cette fonctionnalité, jusqu’ici réservée aux abonnés payants, est désormais accessible aux comptes gratuits (free-tier) via trois surfaces : AI Mode dans Google Search, l’application Gemini (iOS/Android) et l’extension Gemini in Chrome.
Personal Intelligence connecte de façon sécurisée les applications Google de l’utilisateur (Gmail, Google Photos, YouTube, Search) pour fournir des réponses personnalisées. Exemples : recommandations shopping adaptées aux achats passés, assistance technique ciblant l’appareil exact acheté (extrait des reçus Gmail), itinéraires de voyage personnalisés basés sur les confirmations d’hôtel. L’utilisateur choisit quelles applications connecter et peut désactiver à tout moment. Disponible pour les comptes Google personnels uniquement (pas Workspace entreprise/éducation).
🔗 Blog Google – Personal Intelligence
AlphaFold Database : millions de nouvelles structures de complexes protéiques
17 mars — Google DeepMind annonce l’expansion de la base de données AlphaFold Database (AFDB) avec des millions de nouvelles structures de complexes protéiques prédites par IA, en collaboration avec l’EMBL-EBI (Institut européen de bioinformatique), NVIDIA et l’Université nationale de Séoul. Les nouvelles structures couvrent notamment les pathogènes bactériens prioritaires de l’OMS — les bactéries les plus dangereuses et résistantes aux antibiotiques. Cette expansion passe du niveau des protéines individuelles aux complexes protéiques (interactions entre plusieurs protéines), un bond qualitatif pour la recherche médicale et pharmaceutique.
🔗 Annonce Pushmeet Kohli sur X
xAI : API Text-to-Speech de Grok et première place en édition vidéo
API Text-to-Speech
16 mars — xAI annonce la disponibilité de l’API Text-to-Speech de Grok, proposant des voix naturelles et expressives pour les développeurs. LiveKit a intégré cette TTS dans LiveKit Inference dès le lancement.
Grok Imagine #1 en édition vidéo
15 mars — Grok Imagine atteint la première place en édition vidéo sur le classement Design Arena, avec un Elo de 1290. L’API Imagine est désormais accessible aux développeurs. La fonctionnalité couvre l’ajout, la suppression et l’échange d’objets dans des scènes vidéo.
Perplexity Computer : contrôle total de Comet et Android
Computer contrôle Comet sans MCP
16 mars — Computer peut désormais prendre le contrôle total du navigateur Comet pour exécuter des tâches autonomes : l’agent navigateur peut accéder à n’importe quel site ou application connectée, sans connecteurs ni MCP. Disponible pour tous les utilisateurs Computer sur Comet.
Computer sur Android
16 mars — Perplexity Computer est désormais disponible sur Android, étendant le lancement iOS du 13 mars à l’ensemble des plateformes mobiles.
Manus : bureau local et Google Workspace au niveau développeur
Manus “My Computer” sur macOS et Windows
16 mars — Manus annonce “My Computer”, fonctionnalité centrale de la nouvelle application Manus Desktop (macOS et Windows). Jusqu’ici limité à un bac à sable cloud, Manus peut désormais s’exécuter directement sur la machine locale via des instructions en ligne de commande dans un terminal local — avec approbation explicite de l’utilisateur à chaque étape.
Les cas d’usage couvrent un spectre large : trier et renommer des milliers de fichiers, créer des applications de bureau natives (exemple cité : une application Mac de traduction et sous-titrage en temps réel créée en 20 minutes, sans ouvrir Xcode), ou utiliser le GPU local pour entraîner des modèles de machine learning. My Computer complète les Connecteurs cloud existants (Google Calendar, Gmail) plutôt que de les remplacer.
🔗 Tweet Manus · 🔗 Blog Manus
Manus maîtrise Google Workspace avec précision
17 mars — Manus déploie une mise à jour majeure de son connecteur Google Workspace, basée sur le Google Workspace CLI (outil open source de l’équipe Google). L’ancienne version traitait les fichiers Google comme des blocs monolithiques ; la nouvelle version permet des actions granulaires :
| Domaine | Nouvelles capacités |
|---|---|
| Google Docs | Remplacements de texte chirurgicaux, réponses à des commentaires spécifiques |
| Google Sheets | Lecture multi-feuilles croisées, mise à jour d’une cellule précise, duplication d’onglets |
| Google Slides | Édition de présentations existantes (titre d’une diapositive, mise à jour de chronologie) |
| Google Drive | Réorganisation de dossiers |
La mise à jour est gratuite et rétrocompatible.
🔗 Tweet Manus · 🔗 Blog Manus
GitHub : /fleet pour la maintenance en masse et 12,5 M$ pour l’open source
Copilot /fleet : maintenance sur toute la flotte de dépôts
15 mars — GitHub fait la démonstration de la commande /fleet dans GitHub Copilot. En une instruction, les développeurs qui gèrent plusieurs dépôts peuvent déléguer les tâches de maintenance répétitives (mises à jour de configuration, corrections de dépendances) à l’agent sur l’ensemble de leur flotte, plutôt que dépôt par dépôt.
12,5 M$ pour la sécurité open source
17 mars — GitHub, Anthropic, AWS, Google et OpenAI s’unissent dans un engagement collectif de 12,5 millions de dollars en faveur d’Alpha-Omega, le programme de la Linux Foundation dédié à la sécurisation de l’écosystème open source.
Points clés côté GitHub : 280 000+ mainteneurs sur des centaines de millions de dépôts publics seront éligibles à un accès gratuit à GitHub Copilot Pro. GitHub injecte également 5,5 M$ en crédits Azure pour la formation. Le GitHub Secure Open Source Fund, qui a déjà soutenu 138 projets, ouvre sa quatrième session fin avril 2026.
Le contexte est significatif : l’IA a considérablement accéléré la découverte de vulnérabilités, ce qui alourdit la charge des mainteneurs. L’objectif affiché est que l’IA réduise cette charge plutôt que de l’augmenter.
🔗 Article GitHub Blog 🔗 Annonce Linux Foundation
Z.ai GLM-5-Turbo : haute-vitesse pour les environnements agents
15 mars — Z.ai lance GLM-5-Turbo, une variante haute-vitesse de GLM-5 optimisée pour les environnements agents (notamment OpenClaw). Le même jour, les limites d’utilisation sont triplées pour les abonnés GLM Coding Plan. Disponible sur OpenRouter et via l’API directe.
Kimi publie un paper sur les Attention Residuals
16-17 mars — Moonshot AI publie un paper de recherche sur les Attention Residuals sur arXiv : une nouvelle approche d’agrégation en profondeur qui remplace les connexions résiduelles standard par une récurrence inspirée de la dualité temps/profondeur (depth-wise aggregation). L’analyse montre que cette approche atténue naturellement les problèmes de croissance de magnitude des états cachés. Elon Musk a répondu “Impressive work from Kimi” sur le tweet d’annonce (4,5 millions de vues).
🔗 Tweet Kimi · 🔗 arXiv 2603.15031
ElevenLabs × Deloitte : agents omnicanaux pour l’entreprise
14 mars — ElevenLabs et Deloitte annoncent un partenariat stratégique combinant la plateforme ElevenLabs Agents avec l’expertise sectorielle de Deloitte, pour aider les grandes entreprises à déployer des agents conversationnels omnicanaux. Le partenariat cible les entreprises régulées (finance, santé, service public). Deloitte apporte l’intégration métier, ElevenLabs fournit l’infrastructure audio IA (voix, transcription, agents).
Brèves
Tongyi Fun-CineForge (Alibaba, 16 mars) — Tongyi Lab open-source Fun-CineForge, un système de doublage cinématographique IA approchant la qualité du cinéma professionnel. Disponible sur GitHub, HuggingFace et ModelScope. 🔗 Annonce sur X
Ce que ça signifie
La NVIDIA GTC 2026 cristallise une dynamique importante : plusieurs labs IA de premier plan (Mistral, Perplexity, Cohere) s’alignent autour de l’infrastructure NVIDIA pour co-développer des modèles frontier ouverts ou des déploiements souverains. Cette convergence autour d’une coalition ouverte tranche avec la période récente de fragmentation — et signale que le pré-entraînement à grande échelle est devenu trop coûteux pour être traité en silo.
GPT-5.4 mini confirme une tendance lourde : les modèles “petit format” ne sont plus des versions dégradées mais des alternatives compétitives. Avec 54,4 % sur SWE-Bench Pro contre 57,7 % pour le modèle complet, et un coût 19x inférieur, GPT-5.4 mini redéfinit le rapport performance/prix pour les workflows de codage.
La journée du 17 mars illustre aussi la montée en puissance des agents locaux et bureau : Manus “My Computer” sort du cloud pour accéder à la machine locale, Perplexity Computer prend le contrôle de Comet sans MCP, et Claude Code double sa fenêtre de génération par défaut pour Opus 4.6. L’ère de l’agent qui se contente de suggérer laisse place à celle de l’agent qui exécute.
Sources
- Introducing GPT-5.4 mini and nano – OpenAI
- Why Codex Security Doesn’t Include a SAST Report – OpenAI
- Mistral × NVIDIA – annonce X
- Perplexity rejoint la NVIDIA Nemotron Coalition
- NVIDIA Nemotron Coalition
- NVIDIA Dynamo 1.0 – X
- NVIDIA Physical AI Data Factory Blueprint – X
- Cohere + NVIDIA IA souveraine
- Perplexity Comet Enterprise
- CHANGELOG Claude Code v2.1.77
- Thariq – Skills article
- Google Personal Intelligence expansion
- AlphaFold Database expansion – X
- xAI TTS API – X
- Grok Imagine #1 Design Arena – X
- Perplexity Computer contrôle Comet – X
- Perplexity Computer Android – X
- Manus My Computer
- Manus Google Workspace CLI
- GitHub Copilot /fleet – X
- GitHub + Alpha-Omega 12,5 M$
- Linux Foundation – fonds sécurité open source
- Z.ai GLM-5-Turbo – X
- Kimi Attention Residuals – X
- Kimi Attention Residuals – arXiv
- ElevenLabs × Deloitte
- Tongyi Fun-CineForge – X