Il 17 marzo 2026 si colloca all’insegna del GTC NVIDIA e di diversi lanci importanti. OpenAI pubblica GPT-5.4 mini e nano, i suoi modelli compatti più capaci fino a oggi, che si avvicinano al modello completo su diversi benchmark. La NVIDIA Nemotron Coalition prende slancio con l’adesione di Mistral AI e Perplexity. Perplexity apre contemporaneamente Comet Enterprise con una governance MDM completa, Claude Code v2.1.77 raddoppia il limite di generazione per Opus 4.6, e GitHub, Anthropic, Google e OpenAI si uniscono per finanziare la sicurezza open source per un importo di 12,5 milioni di dollari.
GPT-5.4 mini e nano: i modelli compatti di OpenAI
17 marzo — OpenAI lancia GPT-5.4 mini e GPT-5.4 nano, i suoi modelli compatti più performanti fino a oggi. Queste due varianti portano le capacità di GPT-5.4 in formati ottimizzati per carichi di lavoro ad alto volume, con latenza ridotta e un costo inferiore.
GPT-5.4 mini migliora in modo significativo GPT-5 mini su codice, ragionamento, comprensione multimodale e uso degli strumenti, pur funzionando più di due volte più velocemente. Si avvicina alle prestazioni del modello completo GPT-5.4 su diverse valutazioni chiave, tra cui SWE-Bench Pro e OSWorld-Verified.
GPT-5.4 nano è la versione più piccola e meno costosa della famiglia GPT-5.4, pensata per i compiti in cui contano soprattutto velocità e costo: classificazione, estrazione dati, ranking e semplici sotto-agenti di codice.
| Valutazione | GPT-5.4 | GPT-5.4 mini | GPT-5.4 nano | GPT-5 mini |
|---|---|---|---|---|
| SWE-Bench Pro (public) | 57,7 % | 54,4 % | 52,4 % | 45,7 % |
| Terminal-Bench 2.0 | 75,1 % | 60,0 % | 46,3 % | 38,2 % |
| Toolathlon | 54,6 % | 42,9 % | 35,5 % | 26,9 % |
| GPQA Diamond | 93,0 % | 88,0 % | 82,8 % | 81,6 % |
| OSWorld-Verified | 75,0 % | 72,1 % | 39,0 % | 42,0 % |
I casi d’uso si articolano in tre ambiti: gli assistenti di codice (GPT-5.4 mini eccelle nei workflow di coding veloce, nei cicli di debug, nella generazione frontend), i sotto-agenti (in Codex, GPT-5.4 può delegare sotto-attività a GPT-5.4 mini usando solo il 30 % del quota GPT-5.4), e il controllo dell’interfaccia (computer use), dove GPT-5.4 mini interpreta rapidamente gli screenshot di interfacce dense.
| Modello | Disponibilità | Prezzo in entrata | Prezzo in uscita | Contesto |
|---|---|---|---|---|
| GPT-5.4 mini | API, Codex, ChatGPT Free/Go | 0,75 $/million tokens | 4,50 $/million tokens | 400 000 tokens |
| GPT-5.4 nano | Solo API | 0,20 $/million tokens | 1,25 $/million tokens | — |
In ChatGPT, GPT-5.4 mini è accessibile agli utenti Free e Go tramite la funzionalità “Thinking” nel menu +. Per i piani a pagamento, funge da modello di fallback in caso di limite di velocità di GPT-5.4 Thinking.
🔗 Introducing GPT-5.4 mini and nano
NVIDIA GTC 2026 : la Nemotron Coalition e Dynamo 1.0
La conferenza GTC di NVIDIA, che si è tenuta a partire dal 16 marzo, è stata il catalizzatore di diversi annunci importanti del settore: formazione di una coalizione aperta intorno ai modelli frontier open source, rilascio in produzione di un sistema operativo di inferenza, e annuncio di un blueprint dei dati per l’IA fisica.
Mistral si unisce alla NVIDIA Nemotron Coalition
16 marzo — Mistral AI annuncia una partnership strategica con NVIDIA per co-sviluppare modelli di IA frontier open source. Mistral diventa membro fondatore della NVIDIA Nemotron Coalition, combinando la sua architettura frontier con l’infrastruttura di calcolo NVIDIA e i suoi strumenti di sviluppo.
| Aspetto | Dettaglio |
|---|---|
| Ruolo Mistral | Membro fondatore, architettura frontier + offerta IA full-stack |
| Contributo NVIDIA | Infrastruttura GPU + strumenti di sviluppo |
| Obiettivo | Co-sviluppare modelli aperti di livello frontier |
Perplexity si unisce anch’essa alla coalizione
16 marzo — Perplexity annuncia la sua adesione alla stessa NVIDIA Nemotron Coalition. Punti chiave: Perplexity affina diversi modelli aperti per ogni fase della sua pipeline di risposta (analisi della query, ragionamento, risposta finale). Il modello Nemotron 3 Super (120 miliardi di parametri, architettura MoE) è ora disponibile nella barra di ricerca Perplexity, nell’Agent API e in Perplexity Computer.
🔗 Blog Perplexity – Nemotron Coalition 🔗 Annuncio NVIDIA
Dynamo 1.0 : il sistema operativo di inferenza va in produzione
16 marzo — NVIDIA annuncia al GTC la messa in produzione di Dynamo 1.0, presentato come il “sistema operativo di inferenza” (inference operating system) per le fabbriche di IA (AI factories). Dynamo potenzia le prestazioni di inferenza sui GPU Blackwell fino a 7x rispetto ai deployment non ottimizzati. Il passaggio alla v1.0 segna il passaggio dalla fase sperimentale alla produzione industriale.
Physical AI Data Factory Blueprint
16 marzo — NVIDIA svela il Physical AI Data Factory Blueprint: un’architettura di riferimento per trasformare il calcolo accelerato in dati di addestramento di alta qualità destinati alla robotica, agli agenti di visione IA e ai veicoli autonomi. Questo blueprint consente alle aziende di generare sinteticamente dati di addestramento per l’IA fisica su larga scala.
Cohere + NVIDIA : IA sovrana su DGX Spark
16 marzo — Cohere e NVIDIA collaborano per sviluppare un’IA sovrana, sicura ed efficace, annunciata anch’essa al GTC. Due assi principali: i modelli NVIDIA ecosystem-native (modelli personalizzati ottimizzati per l’ultima architettura NVIDIA, destinati ai workload enterprise specializzati) e North su DGX Spark (la piattaforma agentica North di Cohere sarà disponibile su NVIDIA DGX Spark, in locale e a bassa latenza per i dati sensibili). I settori target sono finanza, sanità e settore pubblico.
🔗 Blog Cohere – IA sovrana NVIDIA
Perplexity Comet Enterprise : governance MDM e integrazione CrowdStrike
17 marzo — Perplexity lancia Comet Enterprise per tutti gli abbonati Enterprise. Il browser IA passa alla versione enterprise con una governance di deployment completa.
| Funzionalità | Descrizione |
|---|---|
| Deployment MDM | Installatore silenzioso, deployment su migliaia di macchine, log di audit |
| Telemetria granulare | Tracciamento per utente |
| CrowdStrike Falcon | Protezione anti-phishing, rilevamento di esfiltrazione (screenshot, download) |
| Intervento in tempo reale | Possibile tramite l’integrazione CrowdStrike |
| Privacy | Perplexity non addestra mai i suoi modelli sui dati enterprise |
Tra i primi utenti: aziende Fortune, AWS, AlixPartners, Gunderson Dettmer e Bessemer Venture Partners. I casi d’uso documentati coprono la preparazione di riunioni con clienti (notizie in tempo reale), l’analisi di contratti SOW, i calcoli finanziari e la ricerca di settore.
🔗 Blog Perplexity – Comet Enterprise
Claude Code v2.1.77 : 64k token di default per Opus 4.6
17 marzo — Claude Code v2.1.77 esce con un aumento significativo dei limiti di generazione e diverse correzioni di bug critici.
| Modello | Limite predefinito | Limite massimo |
|---|---|---|
| Claude Opus 4.6 | 64 000 token | 128 000 token |
| Claude Sonnet 4.6 | — | 128 000 token |
Il limite predefinito per Opus 4.6 raddoppia (da 32k a 64k token), consentendo risposte molto più lunghe senza configurazione aggiuntiva.
Nuove funzionalità:
allowReadnei sandbox: nuovo parametro di configurazione filesystem che consente di ri-autorizzare la lettura in aree coperte da una regoladenyRead. Utile per configurazioni di sicurezza granulari./copy N: il comando/copyaccetta ora un indice opzionale —/copy 2copia la seconda risposta precedente dell’assistente senza navigare nella cronologia.
Correzioni notevoli:
- “Always Allow” sui comandi bash composti: la regola veniva salvata per l’intera stringa (
cd src && npm test) invece che per singolo comando. Corretto. - Auto-updater: avviava download paralleli durante aperture e chiusure ripetute della finestra, arrivando ad accumulare decine di gigabyte in memoria. Corretto.
--resumeche tronca la cronologia: una race condition tra le scritture di estrazione di memoria e il transcript principale poteva causare una troncatura silenziosa. Corretto.- Hook
PreToolUseche aggirano le regoledeny: un hook che restituiva"allow"aggirava le regole di permessodeny, inclusi i parametri gestiti dall’azienda. Importante correzione di sicurezza.
Articolo tecnico : come il team Claude Code utilizza gli Skills
17 marzo — Thariq (@trq212), ingegnere del team Claude Code in Anthropic, pubblica “Lessons from Building Claude Code: How We Use Skills”, secondo articolo della serie dopo “Seeing like an Agent” (27 febbraio, 3,6 milioni di visualizzazioni).
L’articolo documenta come gli Skills siano diventati uno dei punti di estensione più utilizzati di Claude Code — flessibili, facili da mantenere, e consentono ai team di definire workflow riutilizzabili direttamente nel loro ambiente di sviluppo. Boris Cherny (@bcherny), responsabile di Claude Code, ha rilanciato l’articolo definendolo “Really great writeup”. L’autore annuncia inoltre la prossima pubblicazione open source di uno skill iMessage come esempio concreto.
“Using Skills well is a skill issue. I didn’t quite realize how much until I wrote this.”
🇮🇹 Usare bene gli Skills è una questione di competenza. Non mi ero reso conto di quanto fino a quando non ho scritto questo articolo. — @trq212 su X
Codex Security : perché nessun report SAST
16 marzo — OpenAI pubblica un articolo tecnico che spiega la scelta progettuale dietro Codex Security: perché il sistema non si basa sull’analisi statica (SAST) come punto di partenza.
L’approccio si fonda su quattro pilastri: la lettura contestuale (analizzare l’intero percorso di codice con il contesto del repository), il micro-fuzzing mirato (ridurre al più piccolo frammento testabile per scrivere micro-fuzzer), il ragionamento sui vincoli (usare un ambiente Python con z3-solver per formalizzare problemi complessi), e la validazione in sandbox (distinguere “potrebbe essere un problema” da “è un problema” con un PoC compilato). L’articolo illustra questi principi con CVE-2024-29041 (Express), un open redirect in cui URL malformate aggiravano le implementazioni di allowlist.
🔗 Why Codex Security Doesn’t Include a SAST Report
Gemini Personal Intelligence : espansione gratuita negli Stati Uniti
17 marzo — Google estende Personal Intelligence a più utenti gratuitamente negli Stati Uniti. Questa funzionalità, finora riservata agli abbonati paganti, è ora accessibile agli account gratuiti (free-tier) tramite tre superfici: AI Mode nella Google Search, l’app Gemini (iOS/Android) e l’estensione Gemini in Chrome.
Personal Intelligence collega in modo sicuro le applicazioni Google dell’utente (Gmail, Google Photos, YouTube, Search) per fornire risposte personalizzate. Esempi: raccomandazioni di shopping adatte agli acquisti passati, assistenza tecnica mirata al dispositivo esatto acquistato (estratto dalle ricevute Gmail), itinerari di viaggio personalizzati basati sulle conferme dell’hotel. L’utente sceglie quali applicazioni collegare e può disattivare tutto in qualsiasi momento. Disponibile solo per account Google personali (non Workspace enterprise/education).
🔗 Blog Google – Personal Intelligence
AlphaFold Database : milioni di nuove strutture di complessi proteici
17 marzo — Google DeepMind annuncia l’espansione del database AlphaFold Database (AFDB) con milioni di nuove strutture di complessi proteici predette dall’IA, in collaborazione con EMBL-EBI (Istituto europeo di bioinformatica), NVIDIA e l’Università nazionale di Seul. Le nuove strutture coprono in particolare i patogeni batterici prioritari dell’OMS — i batteri più pericolosi e resistenti agli antibiotici. Questa espansione passa dal livello delle proteine individuali ai complessi proteici (interazioni tra più proteine), un salto qualitativo per la ricerca medica e farmaceutica.
🔗 Annuncio di Pushmeet Kohli su X
xAI : API Text-to-Speech di Grok e primo posto nell’editing video
API Text-to-Speech
16 marzo — xAI annuncia la disponibilità dell’API Text-to-Speech di Grok, che offre voci naturali ed espressive per gli sviluppatori. LiveKit ha integrato questa TTS in LiveKit Inference fin dal lancio.
Grok Imagine #1 nell’editing video
15 marzo — Grok Imagine raggiunge il primo posto nell’editing video nella classifica Design Arena, con un Elo di 1290. L’API Imagine est désormais accessible aux développeurs. La fonctionnalité couvre l’ajout, la suppression et l’échange d’objets dans des scènes vidéo.
Perplexity Computer : contrôle total de Comet et Android
Computer contrôle Comet sans MCP
16 mars — Computer peut désormais prendre le contrôle total du navigateur Comet pour exécuter des tâches autonomes : l’agent navigateur peut accéder à n’importe quel site ou application connectée, sans connecteurs ni MCP. Disponible pour tous les utilisateurs Computer sur Comet.
Computer sur Android
16 mars — Perplexity Computer est désormais disponible sur Android, étendant le lancement iOS du 13 mars à l’ensemble des plateformes mobiles.
Manus : bureau local et Google Workspace au niveau développeur
Manus “My Computer” sur macOS et Windows
16 mars — Manus annonce “My Computer”, fonctionnalité centrale de la nouvelle application Manus Desktop (macOS et Windows). Jusqu’ici limité à un bac à sable cloud, Manus peut désormais s’exécuter directement sur la machine locale via des instructions en ligne de commande dans un terminal local — avec approbation explicite de l’utilisateur à chaque étape.
Les cas d’usage couvrent un spectre large : trier et renommer des milliers de fichiers, créer des applications de bureau natives (exemple cité : une application Mac de traduction et sous-titrage en temps réel créée en 20 minutes, sans ouvrir Xcode), ou utiliser le GPU local pour entraîner des modèles de machine learning. My Computer complète les Connecteurs cloud existants (Google Calendar, Gmail) plutôt que de les remplacer.
🔗 Tweet Manus · 🔗 Blog Manus
Manus maîtrise Google Workspace avec précision
17 mars — Manus déploie une mise à jour majeure de son connecteur Google Workspace, basée sur le Google Workspace CLI (outil open source de l’équipe Google). L’ancienne version traitait les fichiers Google comme des blocs monolithiques ; la nouvelle version permet des actions granulaires :
| Domaine | Nouvelles capacités |
|---|---|
| Google Docs | Remplacements de texte chirurgicaux, réponses à des commentaires spécifiques |
| Google Sheets | Lecture multi-feuilles croisées, mise à jour d’une cellule précise, duplication d’onglets |
| Google Slides | Édition de présentations existantes (titre d’une diapositive, mise à jour de chronologie) |
| Google Drive | Réorganisation de dossiers |
La mise à jour est gratuite et rétrocompatible.
🔗 Tweet Manus · 🔗 Blog Manus
GitHub : /fleet pour la maintenance en masse et 12,5 M$ pour l’open source
Copilot /fleet : maintenance sur toute la flotte de dépôts
15 mars — GitHub fait la démonstration de la commande /fleet dans GitHub Copilot. En une instruction, les développeurs qui gèrent plusieurs dépôts peuvent déléguer les tâches de maintenance répétitives (mises à jour de configuration, corrections de dépendances) à l’agent sur l’ensemble de leur flotte, plutôt que dépôt par dépôt.
12,5 M$ pour la sécurité open source
17 mars — GitHub, Anthropic, AWS, Google et OpenAI s’unissent dans un engagement collectif de 12,5 millions de dollars en faveur d’Alpha-Omega, le programme de la Linux Foundation dédié à la sécurisation de l’écosystème open source.
Points clés côté GitHub : 280 000+ mainteneurs sur des centaines de millions de dépôts publics seront éligibles à un accès gratuit à GitHub Copilot Pro. GitHub injecte également 5,5 M$ en crédits Azure pour la formation. Le GitHub Secure Open Source Fund, qui a déjà soutenu 138 projets, ouvre sa quatrième session fin avril 2026.
Le contexte est significatif : l’IA a considérablement accéléré la découverte de vulnérabilités, ce qui alourdit la charge des mainteneurs. L’objectif affiché est que l’IA réduise cette charge plutôt que de l’augmenter.
🔗 Article GitHub Blog 🔗 Annonce Linux Foundation
Z.ai GLM-5-Turbo : haute-vitesse pour les environnements agents
15 mars — Z.ai lance GLM-5-Turbo, une variante haute-vitesse de GLM-5 optimisée pour les environnements agents (notamment OpenClaw). Le même jour, les limites d’utilisation sont triplées pour les abonnés GLM Coding Plan. Disponible sur OpenRouter et via l’API directe.
Kimi publie un paper sur les Attention Residuals
16-17 mars — Moonshot AI publie un paper de recherche sur les Attention Residuals sur arXiv : une nouvelle approche d’agrégation en profondeur qui remplace les connexions résiduelles standard par une récurrence inspirée de la dualité temps/profondeur (depth-wise aggregation). L’analyse montre que cette approche atténue naturellement les problèmes de croissance de magnitude des états cachés. Elon Musk a répondu “Impressive work from Kimi” sur le tweet d’annonce (4,5 millions de vues).
🔗 Tweet Kimi · 🔗 arXiv 2603.15031
ElevenLabs × Deloitte : agents omnicanaux pour l’entreprise
14 mars — ElevenLabs et Deloitte annoncent un partenariat stratégique combinant la plateforme ElevenLabs Agents avec l’expertise sectorielle de Deloitte, pour aider les grandes entreprises à déployer des agents conversationnels omnicanaux. Le partenariat cible les entreprises régulées (finance, santé, service public). Deloitte apporte l’intégration métier, ElevenLabs fournit l’infrastructure audio IA (voix, transcription, agents).
Brèves
Tongyi Fun-CineForge (Alibaba, 16 mars) — Tongyi Lab open-source Fun-CineForge, un système de doublage cinématographique IA approchant la qualité du cinéma professionnel. Disponible sur GitHub, HuggingFace et ModelScope. 🔗 Annonce sur X
Ce que ça signifie
La NVIDIA GTC 2026 cristallise une dynamique importante : plusieurs labs IA de premier plan (Mistral, Perplexity, Cohere) s’alignent autour de l’infrastructure NVIDIA pour co-développer des modèles frontier ouverts ou des déploiements souverains. Cette convergence autour d’une coalition ouverte tranche avec la période récente de fragmentation — et signale que le pré-entraînement à grande échelle est devenu trop coûteux pour être traité en silo.
GPT-5.4 mini confirme une tendance lourde : les modèles “petit format” ne sont plus des versions dégradées mais des alternatives compétitives. Avec 54,4 % sur SWE-Bench Pro contre 57,7 % pour le modèle complet, et un coût 19x inférieur, GPT-5.4 mini redéfinit le rapport performance/prix pour les workflows de codage.
La journée du 17 mars illustre aussi la montée en puissance des agents locaux et bureau : Manus “My Computer” sort du cloud pour accéder à la machine locale, Perplexity Computer prend le contrôle de Comet sans MCP, et Claude Code double sa fenêtre de génération par défaut pour Opus 4.6. L’ère de l’agent qui se contente de suggérer laisse place à celle de l’agent qui exécute.
Sources
- Introduzione a GPT-5.4 mini e nano – OpenAI
- Perché la sicurezza di Codex non include un report SAST – OpenAI
- Mistral × NVIDIA – annuncio X
- Perplexity si unisce alla NVIDIA Nemotron Coalition
- NVIDIA Nemotron Coalition
- NVIDIA Dynamo 1.0 – X
- NVIDIA Physical AI Data Factory Blueprint – X
- Cohere + NVIDIA IA souveraine
- Perplexity Comet Enterprise
- CHANGELOG Claude Code v2.1.77
- Thariq – articolo sulle Skills
- Espansione di Google Personal Intelligence
- Espansione di AlphaFold Database – X
- API TTS di xAI – X
- Grok Imagine #1 Design Arena – X
- Perplexity Computer controllo Comet – X
- Perplexity Computer Android – X
- Manus My Computer
- Manus Google Workspace CLI
- GitHub Copilot /fleet – X
- GitHub + Alpha-Omega 12,5 M$
- Linux Foundation – fondo sicurezza open source
- Z.ai GLM-5-Turbo – X
- Kimi Attention Residuals – X
- Kimi Attention Residuals – arXiv
- ElevenLabs × Deloitte
- Tongyi Fun-CineForge – X
Questo documento è stato tradotto dalla versione fr alla lingua it utilizzando il modello gpt-5.4-mini. Per ulteriori informazioni sul processo di traduzione, consulta https://gitlab.com/jls42/ai-powered-markdown-translator