検索

OpenAI launches GPT-5.4 mini and nano, Mistral joins NVIDIA Nemotron Coalition, Perplexity Comet Enterprise available

OpenAI launches GPT-5.4 mini and nano, Mistral joins NVIDIA Nemotron Coalition, Perplexity Comet Enterprise available

2026年3月17日は、NVIDIA GTCと複数の主要発表を象徴する日となった。OpenAIはGPT-5.4 miniとnanoを公開し、同社のこれまでで最も高性能なコンパクトモデルとして、いくつかのベンチマークでフルモデルに迫っている。NVIDIA Nemotron CoalitionはMistral AIとPerplexityの参加により拡大した。Perplexityは同時に、完全なMDMガバナンスを備えたComet Enterpriseを公開し、Claude Code v2.1.77はOpus 4.6の生成上限を倍増、さらにGitHub、Anthropic、Google、OpenAIはオープンソースの安全性確保に1250万ドルを拠出するために連携した。


GPT-5.4 mini et nano : les modèles compacts d’OpenAI

17 mars — OpenAI lance GPT-5.4 mini et GPT-5.4 nano, ses modèles compacts les plus performants à ce jour. Ces deux variantes apportent les capacités de GPT-5.4 dans des formats optimisés pour les charges de travail à fort volume, avec une latence réduite et un coût plus bas.

GPT-5.4 mini améliore significativement GPT-5 mini sur le code, le raisonnement, la compréhension multimodale et l’utilisation d’outils, tout en fonctionnant plus de deux fois plus vite. Il approche les performances du modèle GPT-5.4 complet sur plusieurs évaluations clés, notamment SWE-Bench Pro et OSWorld-Verified.

GPT-5.4 nano est la version la plus petite et la moins coûteuse de la famille GPT-5.4, conçue pour les tâches où la rapidité et le coût priment : classification, extraction de données, classement et sous-agents de code simples.

ÉvaluationGPT-5.4GPT-5.4 miniGPT-5.4 nanoGPT-5 mini
SWE-Bench Pro (public)57,7 %54,4 %52,4 %45,7 %
Terminal-Bench 2.075,1 %60,0 %46,3 %38,2 %
Toolathlon54,6 %42,9 %35,5 %26,9 %
GPQA Diamond93,0 %88,0 %82,8 %81,6 %
OSWorld-Verified75,0 %72,1 %39,0 %42,0 %

Les cas d’usage se déclinent en trois registres : les assistants de code (GPT-5.4 mini excelle dans les workflows de codage rapide, les boucles de débogage, la génération frontend), les sous-agents (dans Codex, GPT-5.4 peut déléguer des sous-tâches à GPT-5.4 mini en utilisant seulement 30 % du quota GPT-5.4), et le contrôle d’interface (computer use), où GPT-5.4 mini interprète rapidement les captures d’écran d’interfaces denses.

ModèleDisponibilitéPrix entréePrix sortieContexte
GPT-5.4 miniAPI, Codex, ChatGPT Free/Go0,75 $/million tokens4,50 $/million tokens400 000 tokens
GPT-5.4 nanoAPI uniquement0,20 $/million tokens1,25 $/million tokens

Dans ChatGPT, GPT-5.4 mini est accessible aux utilisateurs Free et Go via la fonctionnalité “Thinking” dans le menu +. Pour les plans payants, il sert de modèle de repli en cas de limite de débit de GPT-5.4 Thinking.

🔗 GPT-5.4 mini et nano : présentation


NVIDIA GTC 2026 : la Nemotron Coalition et Dynamo 1.0

La conférence GTC de NVIDIA, qui se tenait à partir du 16 mars, a été le catalyseur de plusieurs annonces majeures du secteur : formation d’une coalition ouverte autour des modèles frontier open source, sortie en production d’un système d’exploitation d’inférence, et annonce d’un blueprint de données pour l’IA physique.

Mistral rejoint la NVIDIA Nemotron Coalition

16 mars — Mistral AI annonce un partenariat stratégique avec NVIDIA pour co-développer des modèles d’IA frontier open source. Mistral devient membre fondateur de la NVIDIA Nemotron Coalition, combinant son architecture frontier avec l’infrastructure de calcul NVIDIA et ses outils de développement.

AspectDétail
Rôle MistralMembre fondateur, architecture frontier + offre full-stack IA
Apport NVIDIAInfrastructure GPU + outils de développement
ObjectifCo-développer des modèles ouverts de niveau frontier

🔗 Annonce Mistral sur X

Perplexity rejoint également la coalition

16 mars — Perplexity annonce son adhésion à la même NVIDIA Nemotron Coalition. Points clés : Perplexity affine différents modèles ouverts pour chaque étape de son pipeline de réponse (analyse de requête, raisonnement, réponse finale). Le modèle Nemotron 3 Super (120 milliards de paramètres, architecture MoE) est désormais disponible dans la barre de recherche Perplexity, l’Agent API et Perplexity Computer.

🔗 Blog Perplexity – Nemotron Coalition 🔗 Annonce NVIDIA

Dynamo 1.0 : le système d’exploitation d’inférence passe en production

16 mars — NVIDIA annonce au GTC la mise en production de Dynamo 1.0, présenté comme le “système d’exploitation d’inférence” (inference operating system) pour les usines d’IA (AI factories). Dynamo booste les performances d’inférence sur les GPU Blackwell jusqu’à 7x par rapport aux déploiements non optimisés. Le passage à la v1.0 marque son entrée de la phase expérimentale en production industrielle.

🔗 Annonce NVIDIA Dynamo 1.0

Physical AI Data Factory Blueprint

16 mars — NVIDIA dévoile le Physical AI Data Factory Blueprint : une architecture de référence pour transformer le calcul accéléré en données d’entraînement haute qualité destinées à la robotique, aux agents de vision IA et aux véhicules autonomes. Ce blueprint permet aux entreprises de générer synthétiquement des données d’entraînement pour l’IA physique à grande échelle.

🔗 Annonce NVIDIA Physical AI

Cohere + NVIDIA : IA souveraine sur DGX Spark

16 mars — Cohere et NVIDIA s’associent pour développer une IA souveraine, sécurisée et efficace, annoncé également au GTC. Deux axes principaux : des modèles NVIDIA ecosystem-native (modèles personnalisés optimisés pour la dernière architecture NVIDIA, ciblant les workloads enterprise spécialisés) et North sur DGX Spark (la plateforme agentique North de Cohere sera disponible sur NVIDIA DGX Spark, en local et basse latence pour les données sensibles). Les secteurs cibles sont la finance, la santé et le secteur public.

🔗 Blog Cohere – IA souveraine NVIDIA


Perplexity Comet Enterprise : gouvernance MDM et intégration CrowdStrike

17 mars — Perplexity lance Comet Enterprise pour tous les abonnés Enterprise. Le navigateur IA passe en version entreprise avec une gouvernance de déploiement complète.

FonctionnalitéDescription
Déploiement MDMInstallateur silencieux, déploiement sur des milliers de machines, logs d’audit
Télémétrie granulaireSuivi par utilisateur
CrowdStrike FalconProtection anti-phishing, détection d’exfiltration (captures d’écran, téléchargements)
Intervention temps réelPossible via l’intégration CrowdStrike
ConfidentialitéPerplexity n’entraîne jamais ses modèles sur les données enterprise

Parmi les premiers utilisateurs : des entreprises du classement Fortune, AWS, AlixPartners, Gunderson Dettmer et Bessemer Venture Partners. Les cas d’usage documentés couvrent la préparation de réunions client (actualités en temps réel), l’analyse de contrats SOW, les calculs financiers et la recherche sectorielle.

🔗 Blog Perplexity – Comet Enterprise


Claude Code v2.1.77 : 64k tokens par défaut pour Opus 4.6

17 mars — Claude Code v2.1.77 sort avec une augmentation significative des limites de génération et plusieurs corrections de bugs critiques.

ModèleLimite par défautLimite maximale
Claude Opus 4.664 000 tokens128 000 tokens
Claude Sonnet 4.6128 000 tokens

La limite par défaut pour Opus 4.6 double (de 32k à 64k tokens), permettant des réponses beaucoup plus longues sans configuration supplémentaire.

Nouvelles fonctionnalités :

  • allowRead dans les sandbox : nouveau paramètre de configuration filesystem permettant de ré-autoriser la lecture dans des zones couvertes par une règle denyRead. Utile pour les configurations de sécurité granulaires.
  • /copy N : la commande /copy accepte désormais un index optionnel — /copy 2 copie la deuxième réponse précédente de l’assistant sans naviguer dans l’historique.

Corrections notables :

  • “Always Allow” sur les commandes bash composées : la règle était sauvegardée pour la chaîne complète (cd src && npm test) au lieu de par sous-commande. Corrigé.
  • Auto-updater : démarrait des téléchargements parallèles lors d’ouvertures et fermetures répétées de la fenêtre, pouvant accumuler des dizaines de gigaoctets en mémoire. Corrigé.
  • --resume tronquant l’historique : une condition de course (race condition) entre les écritures d’extraction de mémoire et le transcript principal pouvait entraîner une troncature silencieuse. Corrigé.
  • Hooks PreToolUse bypassant les règles deny : un hook retournant "allow" contournait les règles de permission deny, y compris les paramètres gérés par l’entreprise. Correction de sécurité importante.

🔗 CHANGELOG Claude Code


Article technique : comment l’équipe Claude Code utilise les Skills

17 mars — Thariq (@trq212), ingénieur de l’équipe Claude Code chez Anthropic, publie “Lessons from Building Claude Code: How We Use Skills”, deuxième article de la série après “Seeing like an Agent” (27 février, 3,6 millions de vues).

L’article documente comment les Skills sont devenus l’un des points d’extension les plus utilisés de Claude Code — flexibles, faciles à maintenir, et permettant aux équipes de définir des workflows réutilisables directement dans leur environnement de développement. Boris Cherny (@bcherny), responsable de Claude Code, a relayé l’article en le qualifiant de “Really great writeup”. L’auteur annonce également la publication prochaine d’un skill iMessage en open source comme exemple concret.

“Using Skills well is a skill issue. I didn’t quite realize how much until I wrote this.”

🇯🇵 Skillsを適切に使うのは、ひとつのスキルの問題です。この記事を書くまで、その重要さに気づいていませんでした。@trq212 sur X

🔗 ツイートの公開


Codex Security : why no SAST report

16 mars — OpenAI publie un article technique expliquant le choix de conception derrière Codex Security : pourquoi le système ne s’appuie pas sur l’analyse statique (SAST) comme point de départ.

L’approche repose sur quatre piliers : la lecture contextuelle (analyser le chemin de code complet avec le contexte du dépôt), le micro-fuzzing ciblé (réduire au plus petit fragment testable pour écrire des micro-fuzzers), le raisonnement sur les contraintes (utiliser un environnement Python avec z3-solver pour formaliser les problèmes complexes), et la validation en sandbox (distinguer “ceci pourrait être un problème” de “ceci est un problème” avec un PoC compilé). L’article illustre ces principes avec CVE-2024-29041 (Express), une redirection ouverte où des URL malformées contournaient les implémentations d’allowlist.

🔗 Codex Security には SAST レポートが含まれない理由


Gemini Personal Intelligence : expansion gratuite aux États-Unis

17 mars — Google étend Personal Intelligence à davantage d’utilisateurs gratuitement aux États-Unis. Cette fonctionnalité, jusqu’ici réservée aux abonnés payants, est désormais accessible aux comptes gratuits (free-tier) via trois surfaces : AI Mode dans Google Search, l’application Gemini (iOS/Android) et l’extension Gemini in Chrome.

Personal Intelligence connecte de façon sécurisée les applications Google de l’utilisateur (Gmail, Google Photos, YouTube, Search) pour fournir des réponses personnalisées. Exemples : recommandations shopping adaptées aux achats passés, assistance technique ciblant l’appareil exact acheté (extrait des reçus Gmail), itinéraires de voyage personnalisés basés sur les confirmations d’hôtel. L’utilisateur choisit quelles applications connecter et peut désactiver à tout moment. Disponible pour les comptes Google personnels uniquement (pas Workspace entreprise/éducation).

🔗 Google ブログ – Personal Intelligence


AlphaFold Database : millions de nouvelles structures de complexes protéiques

17 mars — Google DeepMind annonce l’expansion de la base de données AlphaFold Database (AFDB) avec des millions de nouvelles structures de complexes protéiques prédites par IA, en collaboration avec l’EMBL-EBI (Institut européen de bioinformatique), NVIDIA et l’Université nationale de Séoul. Les nouvelles structures couvrent notamment les pathogènes bactériens prioritaires de l’OMS — les bactéries les plus dangereuses et résistantes aux antibiotiques. Cette expansion passe du niveau des protéines individuelles aux complexes protéiques (interactions entre plusieurs protéines), un bond qualitatif pour la recherche médicale et pharmaceutique.

🔗 Annonce de Pushmeet Kohli sur X


xAI : API Text-to-Speech de Grok et première place en édition vidéo

API Text-to-Speech

16 mars — xAI annonce la disponibilité de l’API Text-to-Speech de Grok, proposant des voix naturelles et expressives pour les développeurs. LiveKit a intégré cette TTS dans LiveKit Inference dès le lancement.

🔗 Annonce xAI sur X

Grok Imagine #1 en édition vidéo

15 mars — Grok Imagine atteint la première place en édition vidéo sur le classement Design Arena, avec un Elo de 1290. # 見出し

---
title: 'Grok Imagine #1 Design Arena'
description: "xAI API Imagine est désormais accessible aux développeurs. La fonctionnalité couvre l'ajout, la suppression et l'échange d'objets dans des scènes vidéo."
locale: 'ja'
---

xAI API Imagine は、開発者向けに利用可能になりました。この機能は、動画シーン内のオブジェクトの追加、削除、入れ替えに対応しています。

🔗 Grok の X での発表


Perplexity Computer : Comet と Android の完全な制御

MCP なしで Comet を制御する Computer

3月16日 — Computer は、Comet ブラウザを完全に制御して自律的なタスクを実行できるようになりました。ブラウザエージェントは、コネクタや MCP なしで、接続されたあらゆるサイトやアプリケーションにアクセスできます。Comet 上のすべての Computer ユーザーが利用可能です。

🔗 Perplexity のツイート

Android 上の Computer

3月16日 — Perplexity Computer が Android でも利用可能になり、3月13日の iOS 展開がすべてのモバイルプラットフォームへ拡大されました。

🔗 Perplexity Android のツイート


Manus : ローカルデスクトップと Google Workspace を開発者レベルで

macOS と Windows 上の Manus “My Computer”

3月16日 — Manus は、新しい Manus Desktop アプリ(macOS と Windows)の中核機能である “My Computer” を発表しました。これまでクラウドサンドボックスに限定されていた Manus は、ローカル端末のターミナルでコマンドライン指示を通じて、直接ローカルマシン上で実行できるようになりました。各ステップごとにユーザーの明示的な承認が必要です。

ユースケースは幅広く、数千のファイルの整理・リネーム、ネイティブなデスクトップアプリの作成(例として挙げられているのは、Xcode を開かずに 20 分で作成されたリアルタイム翻訳・字幕付きの Mac アプリ)、あるいはローカル GPU を使った機械学習モデルの学習などが含まれます。My Computer は既存のクラウド Connectors(Google Calendar、Gmail)を置き換えるのではなく、それらを補完します。

🔗 Manus のツイート · 🔗 Manus のブログ

Manus が Google Workspace を精密に扱う

3月17日 — Manus は、Google チームによるオープンソースツールである Google Workspace CLI を基盤にした、Google Workspace コネクタの大規模アップデートを展開します。旧版では Google ファイルを単一のモノリシックなブロックとして扱っていましたが、新版では粒度の細かい操作が可能になります。

領域新機能
Google Docsテキストの外科的な置換、特定のコメントへの返信
Google Sheets複数シート横断の読み取り、特定セルの更新、タブの複製
Google Slides既存プレゼンテーションの編集(スライドのタイトル、タイムライン更新)
Google Driveフォルダの再編成

このアップデートは無料で、後方互換性があります。

🔗 Manus のツイート · 🔗 Manus のブログ


GitHub : 大規模メンテナンスのための /fleet と、オープンソース向け 1250万ドル

Copilot /fleet : リポジトリ群全体でのメンテナンス

3月15日 — GitHub は GitHub Copilot における /fleet コマンドをデモしています。1 回の指示で、複数のリポジトリを管理する開発者は、設定更新や依存関係の修正といった繰り返しのメンテナンス作業を、リポジトリごとではなくフリート全体にわたってエージェントへ委任できます。

🔗 GitHub のツイート

オープンソースの安全性に 1250万ドル

3月17日 — GitHub、Anthropic、AWS、Google、OpenAI は、Linux Foundation のオープンソースエコシステムの保護を目的としたプログラム Alpha-Omega に対し、総額 1250万ドル の共同コミットメントを発表しました。

GitHub 側の主なポイント:数億の公開リポジトリにわたる 280,000 人超のメンテナ が、GitHub Copilot Pro の無料アクセス対象になります。GitHub は研修用として 550万ドルの Azure クレジット も投入します。これまで 138 プロジェクトを支援してきた GitHub Secure Open Source Fund は、2026 年 4 月末に第 4 回の募集を開始します。

背景も重要です。AI により脆弱性の発見は大幅に加速し、その分メンテナの負担が増しています。掲げられている目標は、AI がその負担を増やすのではなく、減らすことです。

🔗 GitHub Blog 記事 🔗 Linux Foundation の発表


Z.ai GLM-5-Turbo : エージェント環境向け高速版

3月15日 — Z.ai は、エージェント環境向けに最適化された GLM-5 の高速バリアント GLM-5-Turbo をリリースしました(特に OpenClaw 向け)。同日、GLM Coding Plan の加入者向けに利用上限が 3 倍に引き上げられました。OpenRouter と直接 API から利用可能です。

🔗 Z.ai の X での発表


Kimi が Attention Residuals に関する paper を公開

3月16〜17日 — Moonshot AI は arXiv で Attention Residuals に関する研究 paper を公開しました。これは、標準的な残差接続を、時間/深度の双対性に着想を得た再帰(depth-wise aggregation)に置き換える、深層集約の新しいアプローチです。解析では、この手法が隠れ状態の大きさの増大問題を自然に緩和することが示されています。Elon Musk は発表ツイートに対して “Impressive work from Kimi” と返信しました(閲覧数 450 万)。

🔗 Kimi のツイート · 🔗 arXiv 2603.15031


ElevenLabs × Deloitte : 企業向けオムニチャネルエージェント

3月14日 — ElevenLabs と Deloitte は、ElevenLabs Agents プラットフォームと Deloitte の業界知見を組み合わせ、大企業がオムニチャネル会話エージェントを展開できるよう支援する戦略的パートナーシップを発表しました。対象は規制産業(金融、医療、公的サービス)です。Deloitte が業務統合を担い、ElevenLabs が AI 音声インフラ(音声、文字起こし、エージェント)を提供します。

🔗 ElevenLabs のブログ


短報

Tongyi Fun-CineForge(Alibaba、3月16日) — Tongyi Lab は、プロの映画品質に迫る AI 映画吹き替えシステム Fun-CineForge をオープンソース公開しました。GitHub、HuggingFace、ModelScope で利用可能です。🔗 X での発表


何を意味するのか

NVIDIA GTC 2026 は重要な流れを浮き彫りにしました。Mistral、Perplexity、Cohere といった主要 AI ラボが NVIDIA のインフラを軸に連携し、オープンな frontier モデルや主権的なデプロイメントを共同開発しようとしています。このオープンな連合を中心とした収束は、最近の断片化とは対照的であり、大規模な事前学習はサイロ化して扱えるほど安価ではなくなったことを示しています。

GPT-5.4 mini は、強い潮流を裏付けています。いわゆる「小型」モデルは、もはや劣化版ではなく競争力のある代替案です。SWE-Bench Pro で完全版モデルの 57.7% に対し 54.4% を記録し、コストは 19 分の 1 と、GPT-5.4 mini はコーディングワークフローにおける性能/価格比を再定義しています。

3月17日は、ローカルおよびデスクトップエージェントの台頭も示しました。Manus “My Computer” はクラウドを離れてローカルマシンにアクセスし、Perplexity Computer は MCP なしで Comet を制御し、Claude Code は Opus 4.6 のデフォルト生成ウィンドウを倍増しました。提案するだけのエージェントの時代は、実行するエージェントの時代へ移りつつあります。


ソース

この文書は、モデル gpt-5.4-mini を使用して fr 版から ja 言語へ翻訳されました。翻訳プロセスの詳細については、https://gitlab.com/jls42/ai-powered-markdown-translator をご覧ください。