Cerca

GPT-5.4 mini e nano lanciate da OpenAI, Mistral si unisce alla NVIDIA Nemotron Coalition, Perplexity Comet Enterprise disponibile

GPT-5.4 mini e nano lanciate da OpenAI, Mistral si unisce alla NVIDIA Nemotron Coalition, Perplexity Comet Enterprise disponibile

Il 17 marzo 2026 si colloca all’insegna del GTC NVIDIA e di diversi lanci importanti. OpenAI pubblica GPT-5.4 mini e nano, i suoi modelli compatti più capaci fino a oggi, che si avvicinano al modello completo su diversi benchmark. La NVIDIA Nemotron Coalition prende slancio con l’adesione di Mistral AI e Perplexity. Perplexity apre contemporaneamente Comet Enterprise con una governance MDM completa, Claude Code v2.1.77 raddoppia il limite di generazione per Opus 4.6, e GitHub, Anthropic, Google e OpenAI si uniscono per finanziare la sicurezza open source per un importo di 12,5 milioni di dollari.


GPT-5.4 mini e nano: i modelli compatti di OpenAI

17 marzo — OpenAI lancia GPT-5.4 mini e GPT-5.4 nano, i suoi modelli compatti più performanti fino a oggi. Queste due varianti portano le capacità di GPT-5.4 in formati ottimizzati per carichi di lavoro ad alto volume, con latenza ridotta e un costo inferiore.

GPT-5.4 mini migliora in modo significativo GPT-5 mini su codice, ragionamento, comprensione multimodale e uso degli strumenti, pur funzionando più di due volte più velocemente. Si avvicina alle prestazioni del modello completo GPT-5.4 su diverse valutazioni chiave, tra cui SWE-Bench Pro e OSWorld-Verified.

GPT-5.4 nano è la versione più piccola e meno costosa della famiglia GPT-5.4, pensata per i compiti in cui contano soprattutto velocità e costo: classificazione, estrazione dati, ranking e semplici sotto-agenti di codice.

ValutazioneGPT-5.4GPT-5.4 miniGPT-5.4 nanoGPT-5 mini
SWE-Bench Pro (public)57,7 %54,4 %52,4 %45,7 %
Terminal-Bench 2.075,1 %60,0 %46,3 %38,2 %
Toolathlon54,6 %42,9 %35,5 %26,9 %
GPQA Diamond93,0 %88,0 %82,8 %81,6 %
OSWorld-Verified75,0 %72,1 %39,0 %42,0 %

I casi d’uso si articolano in tre ambiti: gli assistenti di codice (GPT-5.4 mini eccelle nei workflow di coding veloce, nei cicli di debug, nella generazione frontend), i sotto-agenti (in Codex, GPT-5.4 può delegare sotto-attività a GPT-5.4 mini usando solo il 30 % del quota GPT-5.4), e il controllo dell’interfaccia (computer use), dove GPT-5.4 mini interpreta rapidamente gli screenshot di interfacce dense.

ModelloDisponibilitàPrezzo in entrataPrezzo in uscitaContesto
GPT-5.4 miniAPI, Codex, ChatGPT Free/Go0,75 $/million tokens4,50 $/million tokens400 000 tokens
GPT-5.4 nanoSolo API0,20 $/million tokens1,25 $/million tokens

In ChatGPT, GPT-5.4 mini è accessibile agli utenti Free e Go tramite la funzionalità “Thinking” nel menu +. Per i piani a pagamento, funge da modello di fallback in caso di limite di velocità di GPT-5.4 Thinking.

🔗 Introducing GPT-5.4 mini and nano


NVIDIA GTC 2026 : la Nemotron Coalition e Dynamo 1.0

La conferenza GTC di NVIDIA, che si è tenuta a partire dal 16 marzo, è stata il catalizzatore di diversi annunci importanti del settore: formazione di una coalizione aperta intorno ai modelli frontier open source, rilascio in produzione di un sistema operativo di inferenza, e annuncio di un blueprint dei dati per l’IA fisica.

Mistral si unisce alla NVIDIA Nemotron Coalition

16 marzo — Mistral AI annuncia una partnership strategica con NVIDIA per co-sviluppare modelli di IA frontier open source. Mistral diventa membro fondatore della NVIDIA Nemotron Coalition, combinando la sua architettura frontier con l’infrastruttura di calcolo NVIDIA e i suoi strumenti di sviluppo.

AspettoDettaglio
Ruolo MistralMembro fondatore, architettura frontier + offerta IA full-stack
Contributo NVIDIAInfrastruttura GPU + strumenti di sviluppo
ObiettivoCo-sviluppare modelli aperti di livello frontier

🔗 Annuncio Mistral su X

Perplexity si unisce anch’essa alla coalizione

16 marzo — Perplexity annuncia la sua adesione alla stessa NVIDIA Nemotron Coalition. Punti chiave: Perplexity affina diversi modelli aperti per ogni fase della sua pipeline di risposta (analisi della query, ragionamento, risposta finale). Il modello Nemotron 3 Super (120 miliardi di parametri, architettura MoE) è ora disponibile nella barra di ricerca Perplexity, nell’Agent API e in Perplexity Computer.

🔗 Blog Perplexity – Nemotron Coalition 🔗 Annuncio NVIDIA

Dynamo 1.0 : il sistema operativo di inferenza va in produzione

16 marzo — NVIDIA annuncia al GTC la messa in produzione di Dynamo 1.0, presentato come il “sistema operativo di inferenza” (inference operating system) per le fabbriche di IA (AI factories). Dynamo potenzia le prestazioni di inferenza sui GPU Blackwell fino a 7x rispetto ai deployment non ottimizzati. Il passaggio alla v1.0 segna il passaggio dalla fase sperimentale alla produzione industriale.

🔗 Annuncio NVIDIA Dynamo 1.0

Physical AI Data Factory Blueprint

16 marzo — NVIDIA svela il Physical AI Data Factory Blueprint: un’architettura di riferimento per trasformare il calcolo accelerato in dati di addestramento di alta qualità destinati alla robotica, agli agenti di visione IA e ai veicoli autonomi. Questo blueprint consente alle aziende di generare sinteticamente dati di addestramento per l’IA fisica su larga scala.

🔗 Annuncio NVIDIA Physical AI

Cohere + NVIDIA : IA sovrana su DGX Spark

16 marzo — Cohere e NVIDIA collaborano per sviluppare un’IA sovrana, sicura ed efficace, annunciata anch’essa al GTC. Due assi principali: i modelli NVIDIA ecosystem-native (modelli personalizzati ottimizzati per l’ultima architettura NVIDIA, destinati ai workload enterprise specializzati) e North su DGX Spark (la piattaforma agentica North di Cohere sarà disponibile su NVIDIA DGX Spark, in locale e a bassa latenza per i dati sensibili). I settori target sono finanza, sanità e settore pubblico.

🔗 Blog Cohere – IA sovrana NVIDIA


Perplexity Comet Enterprise : governance MDM e integrazione CrowdStrike

17 marzo — Perplexity lancia Comet Enterprise per tutti gli abbonati Enterprise. Il browser IA passa alla versione enterprise con una governance di deployment completa.

FunzionalitàDescrizione
Deployment MDMInstallatore silenzioso, deployment su migliaia di macchine, log di audit
Telemetria granulareTracciamento per utente
CrowdStrike FalconProtezione anti-phishing, rilevamento di esfiltrazione (screenshot, download)
Intervento in tempo realePossibile tramite l’integrazione CrowdStrike
PrivacyPerplexity non addestra mai i suoi modelli sui dati enterprise

Tra i primi utenti: aziende Fortune, AWS, AlixPartners, Gunderson Dettmer e Bessemer Venture Partners. I casi d’uso documentati coprono la preparazione di riunioni con clienti (notizie in tempo reale), l’analisi di contratti SOW, i calcoli finanziari e la ricerca di settore.

🔗 Blog Perplexity – Comet Enterprise


Claude Code v2.1.77 : 64k token di default per Opus 4.6

17 marzo — Claude Code v2.1.77 esce con un aumento significativo dei limiti di generazione e diverse correzioni di bug critici.

ModelloLimite predefinitoLimite massimo
Claude Opus 4.664 000 token128 000 token
Claude Sonnet 4.6128 000 token

Il limite predefinito per Opus 4.6 raddoppia (da 32k a 64k token), consentendo risposte molto più lunghe senza configurazione aggiuntiva.

Nuove funzionalità:

  • allowRead nei sandbox: nuovo parametro di configurazione filesystem che consente di ri-autorizzare la lettura in aree coperte da una regola denyRead. Utile per configurazioni di sicurezza granulari.
  • /copy N: il comando /copy accetta ora un indice opzionale — /copy 2 copia la seconda risposta precedente dell’assistente senza navigare nella cronologia.

Correzioni notevoli:

  • “Always Allow” sui comandi bash composti: la regola veniva salvata per l’intera stringa (cd src && npm test) invece che per singolo comando. Corretto.
  • Auto-updater: avviava download paralleli durante aperture e chiusure ripetute della finestra, arrivando ad accumulare decine di gigabyte in memoria. Corretto.
  • --resume che tronca la cronologia: una race condition tra le scritture di estrazione di memoria e il transcript principale poteva causare una troncatura silenziosa. Corretto.
  • Hook PreToolUse che aggirano le regole deny: un hook che restituiva "allow" aggirava le regole di permesso deny, inclusi i parametri gestiti dall’azienda. Importante correzione di sicurezza.

🔗 CHANGELOG Claude Code


Articolo tecnico : come il team Claude Code utilizza gli Skills

17 marzo — Thariq (@trq212), ingegnere del team Claude Code in Anthropic, pubblica “Lessons from Building Claude Code: How We Use Skills”, secondo articolo della serie dopo “Seeing like an Agent” (27 febbraio, 3,6 milioni di visualizzazioni).

L’articolo documenta come gli Skills siano diventati uno dei punti di estensione più utilizzati di Claude Code — flessibili, facili da mantenere, e consentono ai team di definire workflow riutilizzabili direttamente nel loro ambiente di sviluppo. Boris Cherny (@bcherny), responsabile di Claude Code, ha rilanciato l’articolo definendolo “Really great writeup”. L’autore annuncia inoltre la prossima pubblicazione open source di uno skill iMessage come esempio concreto.

“Using Skills well is a skill issue. I didn’t quite realize how much until I wrote this.”

🇮🇹 Usare bene gli Skills è una questione di competenza. Non mi ero reso conto di quanto fino a quando non ho scritto questo articolo.@trq212 su X

🔗 Tweet di pubblicazione


Codex Security : perché nessun report SAST

16 marzo — OpenAI pubblica un articolo tecnico che spiega la scelta progettuale dietro Codex Security: perché il sistema non si basa sull’analisi statica (SAST) come punto di partenza.

L’approccio si fonda su quattro pilastri: la lettura contestuale (analizzare l’intero percorso di codice con il contesto del repository), il micro-fuzzing mirato (ridurre al più piccolo frammento testabile per scrivere micro-fuzzer), il ragionamento sui vincoli (usare un ambiente Python con z3-solver per formalizzare problemi complessi), e la validazione in sandbox (distinguere “potrebbe essere un problema” da “è un problema” con un PoC compilato). L’articolo illustra questi principi con CVE-2024-29041 (Express), un open redirect in cui URL malformate aggiravano le implementazioni di allowlist.

🔗 Why Codex Security Doesn’t Include a SAST Report


Gemini Personal Intelligence : espansione gratuita negli Stati Uniti

17 marzo — Google estende Personal Intelligence a più utenti gratuitamente negli Stati Uniti. Questa funzionalità, finora riservata agli abbonati paganti, è ora accessibile agli account gratuiti (free-tier) tramite tre superfici: AI Mode nella Google Search, l’app Gemini (iOS/Android) e l’estensione Gemini in Chrome.

Personal Intelligence collega in modo sicuro le applicazioni Google dell’utente (Gmail, Google Photos, YouTube, Search) per fornire risposte personalizzate. Esempi: raccomandazioni di shopping adatte agli acquisti passati, assistenza tecnica mirata al dispositivo esatto acquistato (estratto dalle ricevute Gmail), itinerari di viaggio personalizzati basati sulle conferme dell’hotel. L’utente sceglie quali applicazioni collegare e può disattivare tutto in qualsiasi momento. Disponibile solo per account Google personali (non Workspace enterprise/education).

🔗 Blog Google – Personal Intelligence


AlphaFold Database : milioni di nuove strutture di complessi proteici

17 marzo — Google DeepMind annuncia l’espansione del database AlphaFold Database (AFDB) con milioni di nuove strutture di complessi proteici predette dall’IA, in collaborazione con EMBL-EBI (Istituto europeo di bioinformatica), NVIDIA e l’Università nazionale di Seul. Le nuove strutture coprono in particolare i patogeni batterici prioritari dell’OMS — i batteri più pericolosi e resistenti agli antibiotici. Questa espansione passa dal livello delle proteine individuali ai complessi proteici (interazioni tra più proteine), un salto qualitativo per la ricerca medica e farmaceutica.

🔗 Annuncio di Pushmeet Kohli su X


xAI : API Text-to-Speech di Grok e primo posto nell’editing video

API Text-to-Speech

16 marzo — xAI annuncia la disponibilità dell’API Text-to-Speech di Grok, che offre voci naturali ed espressive per gli sviluppatori. LiveKit ha integrato questa TTS in LiveKit Inference fin dal lancio.

🔗 Annuncio xAI su X

Grok Imagine #1 nell’editing video

15 marzo — Grok Imagine raggiunge il primo posto nell’editing video nella classifica Design Arena, con un Elo di 1290. L’API Imagine est désormais accessible aux développeurs. La fonctionnalité couvre l’ajout, la suppression et l’échange d’objets dans des scènes vidéo.

🔗 Annonce Grok sur X


Perplexity Computer : contrôle total de Comet et Android

Computer contrôle Comet sans MCP

16 mars — Computer peut désormais prendre le contrôle total du navigateur Comet pour exécuter des tâches autonomes : l’agent navigateur peut accéder à n’importe quel site ou application connectée, sans connecteurs ni MCP. Disponible pour tous les utilisateurs Computer sur Comet.

🔗 Tweet Perplexity

Computer sur Android

16 mars — Perplexity Computer est désormais disponible sur Android, étendant le lancement iOS du 13 mars à l’ensemble des plateformes mobiles.

🔗 Tweet Perplexity Android


Manus : bureau local et Google Workspace au niveau développeur

Manus “My Computer” sur macOS et Windows

16 mars — Manus annonce “My Computer”, fonctionnalité centrale de la nouvelle application Manus Desktop (macOS et Windows). Jusqu’ici limité à un bac à sable cloud, Manus peut désormais s’exécuter directement sur la machine locale via des instructions en ligne de commande dans un terminal local — avec approbation explicite de l’utilisateur à chaque étape.

Les cas d’usage couvrent un spectre large : trier et renommer des milliers de fichiers, créer des applications de bureau natives (exemple cité : une application Mac de traduction et sous-titrage en temps réel créée en 20 minutes, sans ouvrir Xcode), ou utiliser le GPU local pour entraîner des modèles de machine learning. My Computer complète les Connecteurs cloud existants (Google Calendar, Gmail) plutôt que de les remplacer.

🔗 Tweet Manus · 🔗 Blog Manus

Manus maîtrise Google Workspace avec précision

17 mars — Manus déploie une mise à jour majeure de son connecteur Google Workspace, basée sur le Google Workspace CLI (outil open source de l’équipe Google). L’ancienne version traitait les fichiers Google comme des blocs monolithiques ; la nouvelle version permet des actions granulaires :

DomaineNouvelles capacités
Google DocsRemplacements de texte chirurgicaux, réponses à des commentaires spécifiques
Google SheetsLecture multi-feuilles croisées, mise à jour d’une cellule précise, duplication d’onglets
Google SlidesÉdition de présentations existantes (titre d’une diapositive, mise à jour de chronologie)
Google DriveRéorganisation de dossiers

La mise à jour est gratuite et rétrocompatible.

🔗 Tweet Manus · 🔗 Blog Manus


GitHub : /fleet pour la maintenance en masse et 12,5 M$ pour l’open source

Copilot /fleet : maintenance sur toute la flotte de dépôts

15 mars — GitHub fait la démonstration de la commande /fleet dans GitHub Copilot. En une instruction, les développeurs qui gèrent plusieurs dépôts peuvent déléguer les tâches de maintenance répétitives (mises à jour de configuration, corrections de dépendances) à l’agent sur l’ensemble de leur flotte, plutôt que dépôt par dépôt.

🔗 Tweet GitHub

12,5 M$ pour la sécurité open source

17 mars — GitHub, Anthropic, AWS, Google et OpenAI s’unissent dans un engagement collectif de 12,5 millions de dollars en faveur d’Alpha-Omega, le programme de la Linux Foundation dédié à la sécurisation de l’écosystème open source.

Points clés côté GitHub : 280 000+ mainteneurs sur des centaines de millions de dépôts publics seront éligibles à un accès gratuit à GitHub Copilot Pro. GitHub injecte également 5,5 M$ en crédits Azure pour la formation. Le GitHub Secure Open Source Fund, qui a déjà soutenu 138 projets, ouvre sa quatrième session fin avril 2026.

Le contexte est significatif : l’IA a considérablement accéléré la découverte de vulnérabilités, ce qui alourdit la charge des mainteneurs. L’objectif affiché est que l’IA réduise cette charge plutôt que de l’augmenter.

🔗 Article GitHub Blog 🔗 Annonce Linux Foundation


Z.ai GLM-5-Turbo : haute-vitesse pour les environnements agents

15 mars — Z.ai lance GLM-5-Turbo, une variante haute-vitesse de GLM-5 optimisée pour les environnements agents (notamment OpenClaw). Le même jour, les limites d’utilisation sont triplées pour les abonnés GLM Coding Plan. Disponible sur OpenRouter et via l’API directe.

🔗 Annonce Z.ai sur X


Kimi publie un paper sur les Attention Residuals

16-17 mars — Moonshot AI publie un paper de recherche sur les Attention Residuals sur arXiv : une nouvelle approche d’agrégation en profondeur qui remplace les connexions résiduelles standard par une récurrence inspirée de la dualité temps/profondeur (depth-wise aggregation). L’analyse montre que cette approche atténue naturellement les problèmes de croissance de magnitude des états cachés. Elon Musk a répondu “Impressive work from Kimi” sur le tweet d’annonce (4,5 millions de vues).

🔗 Tweet Kimi · 🔗 arXiv 2603.15031


ElevenLabs × Deloitte : agents omnicanaux pour l’entreprise

14 mars — ElevenLabs et Deloitte annoncent un partenariat stratégique combinant la plateforme ElevenLabs Agents avec l’expertise sectorielle de Deloitte, pour aider les grandes entreprises à déployer des agents conversationnels omnicanaux. Le partenariat cible les entreprises régulées (finance, santé, service public). Deloitte apporte l’intégration métier, ElevenLabs fournit l’infrastructure audio IA (voix, transcription, agents).

🔗 Blog ElevenLabs


Brèves

Tongyi Fun-CineForge (Alibaba, 16 mars) — Tongyi Lab open-source Fun-CineForge, un système de doublage cinématographique IA approchant la qualité du cinéma professionnel. Disponible sur GitHub, HuggingFace et ModelScope. 🔗 Annonce sur X


Ce que ça signifie

La NVIDIA GTC 2026 cristallise une dynamique importante : plusieurs labs IA de premier plan (Mistral, Perplexity, Cohere) s’alignent autour de l’infrastructure NVIDIA pour co-développer des modèles frontier ouverts ou des déploiements souverains. Cette convergence autour d’une coalition ouverte tranche avec la période récente de fragmentation — et signale que le pré-entraînement à grande échelle est devenu trop coûteux pour être traité en silo.

GPT-5.4 mini confirme une tendance lourde : les modèles “petit format” ne sont plus des versions dégradées mais des alternatives compétitives. Avec 54,4 % sur SWE-Bench Pro contre 57,7 % pour le modèle complet, et un coût 19x inférieur, GPT-5.4 mini redéfinit le rapport performance/prix pour les workflows de codage.

La journée du 17 mars illustre aussi la montée en puissance des agents locaux et bureau : Manus “My Computer” sort du cloud pour accéder à la machine locale, Perplexity Computer prend le contrôle de Comet sans MCP, et Claude Code double sa fenêtre de génération par défaut pour Opus 4.6. L’ère de l’agent qui se contente de suggérer laisse place à celle de l’agent qui exécute.


Sources

Questo documento è stato tradotto dalla versione fr alla lingua it utilizzando il modello gpt-5.4-mini. Per ulteriori informazioni sul processo di traduzione, consulta https://gitlab.com/jls42/ai-powered-markdown-translator