Il 25 e 26 marzo portano diverse annunci strutturali dal lato Anthropic: Claude integra Figma, Canva e Amplitude come strumenti di lavoro accessibili direttamente da mobile, e Claude Code vede l’avvio accelerato di 2,8x grazie a 60 giorni di ottimizzazioni Bun. GitHub Copilot modifica la politica sull’uso dei dati di interazione con un opt-out da disattivare entro il 24 aprile. Google DeepMind lancia Lyria 3 Pro con generazione musicale estesa a 3 minuti, e NVIDIA fonda la Nemotron Coalition durante GTC 2026.
Claude: strumenti di lavoro su mobile (Figma, Canva, Amplitude)
25 marzo — Claude integra ora tre strumenti di lavoro accessibili direttamente dall’app mobile: Figma, Canva e Amplitude. Gli utenti possono così gestire workflow di design, creazione e analisi dal proprio telefono, senza uscire dall’interfaccia Claude.
L’annuncio su X, accompagnato da un video dimostrativo, ha accumulato 1,9 milioni di visualizzazioni in poche ore — segno che l’integrazione di strumenti professionali nell’interfaccia mobile risponde a una forte domanda.
Claude Code: avvio 2,8x più rapido, Agent SDK 5,1x
24 marzo — Dopo 60 giorni di ottimizzazioni guidate da Jarred Sumner (creatore di Bun, acquisito da Anthropic nel dicembre 2025), Claude Code si avvia ora 2,8x più velocemente, e l’Agent SDK mostra prestazioni 5,1x migliori.
Questi miglioramenti sono il frutto di lavoro a basso livello sul runtime Bun integrato in Claude Code — ottimizzazioni dell’avvio, gestione della memoria e tempo di risposta iniziale. Ripubblicato da Brian Cherny (@bcherny, team Claude Code), questo thread tecnico illustra concretamente cosa apporta l’integrazione di Bun al cuore degli strumenti Claude.
GitHub Copilot: opt-out sui dati di interazione prima del 24 aprile
25 marzo — Mario Rodriguez, direttore prodotto di GitHub, annuncia un aggiornamento della politica sull’uso dei dati di interazione di Copilot. A partire dal 24 aprile 2026, GitHub utilizzerà i dati di interazione degli utenti Copilot Free, Pro e Pro+ — input, output, estratti di codice e contesto associato — per addestrare e migliorare i suoi modelli IA.
Gli utenti interessati possono disabilitare questa condivisione tramite le impostazioni del proprio account prima di tale data. Gli abbonati Copilot Business e Copilot Enterprise non sono interessati da questa modifica — i loro dati restano soggetti agli accordi contrattuali esistenti che escludono l’addestramento.
| Piano | Interessato da questa modifica | Opt-out disponibile |
|---|---|---|
| Copilot Free | Sì | Sì |
| Copilot Pro | Sì | Sì |
| Copilot Pro+ | Sì | Sì |
| Copilot Business | No | — |
| Copilot Enterprise | No | — |
Il punto di svolta è il 24 aprile: gli utenti che non avranno disattivato la condivisione prima di tale data inizieranno a contribuire ai dati di addestramento.
🔗 Aggiornamento politica dati GitHub Copilot 🔗 Annuncio su X
Lyria 3 Pro: tracce musicali fino a 3 minuti con architettura musicale
25 marzo — Google DeepMind lancia Lyria 3 Pro, una versione avanzata del modello di generazione musicale Lyria 3 rilasciato il mese precedente. La novità principale: la capacità di generare tracce fino a 3 minuti, rispetto ai 30 secondi della generazione precedente — un fattore 6.
Il modello include ora l’architettura musicale (musical architecture) — intro, strofe, ritornelli, bridge — che permette di produrre brani con transizioni coerenti e strutture elaborate. I prompt accettano testo, immagini o video come punto di partenza.
| Piattaforma | Accesso | Stato |
|---|---|---|
| App Gemini | Abbonati a pagamento | Disponibile |
| Google AI Studio + API Gemini | Sviluppatori | Disponibile con Lyria RealTime |
| Vertex AI | Aziende | Preview pubblica |
| Google Vids | Workspace + AI Pro/Ultra | Distribuzione settimana del 25 marzo |
| ProducerAI | Gratuito e a pagamento | Esperienza agentica per musicisti |
Lyria 3 Pro è stata utilizzata dal produttore Yung Spielburg per il cortometraggio Google DeepMind “Dear Upstairs Neighbors”, ed è annunciata una collaborazione con il DJ François K per un brano in arrivo.
🔗 Blog ufficiale Google — Lyria 3 Pro 🔗 Annuncio su X
NVIDIA Nemotron Coalition: modelli fondamentali aperti di livello frontier
25 marzo — In occasione della NVIDIA GTC 2026, Jensen Huang annuncia la creazione della NVIDIA Nemotron Coalition, una coalizione globale di costruttori di modelli dedicata allo sviluppo di modelli fondamentali aperti di livello frontier (frontier open foundation models).
Il primo progetto concreto della coalizione sarà un modello di base co-sviluppato da Mistral AI e NVIDIA, con membri che contribuiranno a dati, valutazioni ed expertise di dominio. I panelisti della sessione GTC includono Mira Murati (Thinking Machines Lab), Aravind Srinivas (Perplexity), Arthur Mensch (Mistral), Robin Rombach (Black Forest Labs), oltre a rappresentanti di Cursor e Ai2.
Alcuni numeri messi in evidenza durante l’evento:
- NVIDIA è ora la più grande organizzazione su Hugging Face, con circa 4.000 membri
- I modelli Nemotron sono stati scaricati oltre 45 milioni di volte
“Proprietary versus open is not a thing. It’s proprietary and open.”
🇮🇹 La distinzione tra proprietario e aperto non esiste davvero. È proprietario e aperto. — Jensen Huang, NVIDIA GTC 2026
🔗 Blog NVIDIA — The Future of AI Is Open and Proprietary
OpenAI: il dietro le quinte del Model Spec e delle valutazioni associate
25 marzo — OpenAI pubblica una spiegazione dettagliata del suo approccio intorno al Model Spec — il quadro pubblico che definisce come i suoi modelli dovrebbero comportarsi. Questo post, firmato da Jason Wolfe (ricercatore OpenAI), ne spiega la filosofia, la struttura e i meccanismi di evoluzione.
Il Model Spec si articola attorno a diversi livelli distinti:
| Livello | Descrizione |
|---|---|
| Intenzioni e impegni pubblici | Obiettivi di alto livello: deploy iterativo, evitare danni gravi |
| Catena di comando (Chain of Command) | Regole per risolvere conflitti tra istruzioni OpenAI, sviluppatori e utenti |
| Regole rigorose (Hard rules) | Limiti non modificabili: rischi catastrofici, danni fisici, contenuti illegali |
| Comportamenti di default | Punti di partenza modificabili da sviluppatori e utenti |
| Strumenti di interpretazione | Regole decisionali ed esempi per i casi ambigui |
La distinzione centrale: le regole rigorose non sono eludibili (livello “root”), mentre i comportamenti di default sono configurabili — il che permette di massimizzare la libertà degli utenti entro limiti di sicurezza.
OpenAI sostiene che un’IA sufficientemente avanzata non può semplicemente dedurre il comportamento corretto da obiettivi generali come “essere utile e sicura”: queste formulazioni dipendono troppo dal contesto e implicano compromessi di valore. Il Model Spec serve sia come target interno, sia come strumento di trasparenza e meccanismo di coordinamento tra team.
Parallelamente, OpenAI pubblica i Model Spec Evals — una suite di valutazioni di scenari che tenta di coprire le affermazioni del Model Spec con esempi rappresentativi, per misurare gli scostamenti tra comportamento reale del modello e specifica.
🔗 Inside our approach to the Model Spec 🔗 Annuncio su X
Genspark Realtime Voice: assistente vocale hands-free
25 marzo — Genspark lancia Realtime Voice, un assistente vocale in tempo reale completamente hands-free. Il caso d’uso messo in evidenza durante il lancio: l’utilizzo in auto durante il tragitto casa-lavoro.
Le funzionalità annunciate includono la verifica dell’agenda, l’invio di e-mail e messaggi, la ricerca di informazioni e la creazione di playlist per il tragitto. L’assistente può anche generare presentazioni (slides), eseguire ricerche approfondite (deep research) e analizzare dati — tutto tramite voce.
OpenAI Safety Bug Bounty: segnalazioni di rischi IA
25 marzo — OpenAI lancia un programma di bug bounty dedicato alla sicurezza IA, distinto dal programma di sicurezza informatica classico già esistente. Questo nuovo programma accetta segnalazioni di rischi d’abuso che non corrispondono necessariamente a vulnerabilità software tradizionali.
| Categoria in perimetro | Esempi |
|---|---|
| Rischi agentici (incluso MCP) | Injection di prompt di terze parti, esfiltrazione via agent, azioni non autorizzate su larga scala |
| Informazioni proprietarie OpenAI | Generazione che rivela informazioni di ragionamento proprietarie |
| Integrità di account e piattaforme | Bypass dei controlli anti-automazione, manipolazione dei segnali di fiducia |
I jailbreak classici restano fuori perimetro. OpenAI precisa inoltre di condurre campagne private periodiche su tipi specifici di danno — per esempio contenuti bio-rischio in ChatGPT Agent e GPT-5.
🔗 Introducing the OpenAI Safety Bug Bounty program
Codex Creator Challenge: concorso studentesco con 10.000 $ in crediti
25 marzo — OpenAI e Handshake lanciano il Codex Creator Challenge, un concorso rivolto agli studenti per creare progetti reali con Codex. In palio: 10.000 $ in crediti API OpenAI. La sfida invita gli studenti a sperimentare gli strumenti Codex e costruire applicazioni concrete.
ElevenLabs: Guardrails 2.0 in ElevenAgents, certificato AIUC-1
24 marzo — ElevenLabs distribuisce Guardrails 2.0 nella sua piattaforma ElevenAgents. Questo strato di sicurezza consente di controllare il comportamento degli agenti in produzione con policy aziendali personalizzate o protezioni pre-configurate: mantenimento nel tema (on-topic), coerenza del brand (on-brand), resistenza alla manipolazione.
Guardrails 2.0 è certificato AIUC-1 (AI Use Case standard) e include funzionalità di protezione dei dati, scrittura della storia delle conversazioni e monitoraggio post-deploy.
PrismAudio: modello video-to-audio open source di Tongyi Lab (Alibaba)
24 marzo — Tongyi Lab di Alibaba pubblica PrismAudio, un modello video-to-audio (Video-to-Audio). Contrariamente agli approcci V2A (Video-to-Audio) classici che ottimizzano l’insieme con una sola funzione di perdita, PrismAudio adotta un’architettura “Decomposed Multi-CoT” con tre teste specializzate separate — ciascuna dedicata a un aspetto distinto della generazione audio.
Il modello è addestrato con Multi-Dimensional RL e Fast-GRPO per allineare la generazione audio alle preferenze umane. Le risorse (modello, demo, paper arXiv) sono pubblicate tramite HuggingFace, ModelScope e una pagina progetto dedicata.
Claude Code v2.1.83: gestione centralizzata delle impostazioni Enterprise
25 marzo — La versione 2.1.83 di Claude Code introduce la directory drop-in managed-settings.d/, pensata per gli amministratori Enterprise. Questa directory permette alle organizzazioni di gestire centralmente le impostazioni di Claude Code, depositando file di configurazione che si applicano a tutte le postazioni del deployment.
Kling AI Team Plan: collaborazione fino a 15 membri
24 marzo — Kling AI lancia il Team Plan, un piano collaborativo che permette a team fino a 15 membri di lavorare insieme sulla piattaforma. Il piano include asset condivisi e l’uso commerciale delle creazioni.
Manus Desktop: crediti dimezzati fino al 30 marzo
24 marzo — Manus propone una promozione temporanea sulla sua app Desktop: dal 24 al 30 marzo 2026, ogni task eseguito consuma il 50% in meno di crediti. I crediti esistenti valgono quindi il doppio per tutte le attività svolte tramite Manus Desktop durante questo periodo.
NVIDIA dona il driver DRA GPU alla community Kubernetes
24 marzo — A margine della NVIDIA GTC 2026, NVIDIA annuncia la donazione alla community Kubernetes del suo driver Dynamic Resource Allocation (DRA) per GPU. Questo contributo si inserisce nell’impegno open source di NVIDIA e facilita l’allocazione dinamica delle risorse GPU negli ambienti Kubernetes.
🔗 Blog NVIDIA — AI Future Open and Proprietary
Cosa significa
Le due annunci Anthropic di questo periodo sono complementari: l’integrazione mobile di Figma, Canva e Amplitude avvicina Claude ai workflow professionali quotidiani, mentre i guadagni nell’avvio di Claude Code (2,8x) e dell’Agent SDK (5,1x) migliorano concretamente l’esperienza degli sviluppatori che lo usano in modo continuativo. Questi due assi — uso mobile per il grande pubblico e performance per gli sviluppatori — illustrano la doppia traiettoria di Anthropic.
La decisione di GitHub Copilot sui dati di interazione è la più impattante per gli sviluppatori individuali: per la prima volta, gli utenti dei piani consumer (Free, Pro, Pro+) vedono le proprie interazioni potenzialmente utilizzate per l’addestramento. L’opt-out esiste ma deve essere attivato prima del 24 aprile — il breve lasso di tempo è da notare.
La Nemotron Coalition di NVIDIA è un segnale forte sulla strategia open source dell’industria. Riunendo Mistral, Black Forest Labs, Cursor e altri sotto una coalizione formale per sviluppare modelli di livello frontier, NVIDIA posiziona l’open source non più come alternativa ai modelli proprietari, ma come una categoria complementare a sé stante. La frase di Jensen Huang — “proprietary and open”, non “versus” — riassume bene questo riposizionamento. Lyria 3 Pro conferma che la generazione musicale sta progredendo verso formati utilizzabili in produzione: 3 minuti con una struttura coerente (intro, strofe, ritornelli) cambiano la natura del caso d’uso, passando da estratti sperimentali a brani completi. La disponibilità su più piattaforme Google già nella settimana di lancio accelera l’adozione.
La pubblicazione dei Model Spec Evals da parte di OpenAI — una serie di valutazioni che misurano gli scostamenti tra il comportamento del modello e la specifica scritta — è notevole: è uno dei primi tentativi pubblici di misurare oggettivamente l’allineamento di un modello con le proprie regole di condotta.
Fonti
- Aggiornamento della politica sull’uso dei dati di GitHub Copilot
- Tweet @github — politica sui dati
- Blog di Google — Lyria 3 Pro
- Tweet @GoogleAI — Lyria 3 Pro
- Blog NVIDIA — Il futuro dell’IA è aperto e proprietario
- Tweet @NVIDIAAI — Cohere + IA sovrana GTC
- OpenAI — Il nostro approccio al Model Spec
- Tweet @OpenAI — Model Spec
- OpenAI — Programma Safety Bug Bounty
- Tweet @OpenAIDevs — Codex Creator Challenge
- Tweet @genspark_ai — Realtime Voice
- Tweet @ElevenLabs — Guardrails 2.0
- Tweet @Ali_TongyiLab — PrismAudio
- Tweet @ManusAI — Promo Manus Desktop
- Tweet @claudeai — Claude strumenti di lavoro mobile
- Thread @jarredsumner — Claude Code startup 2,8x / Agent SDK 5,1x
- CHANGELOG Claude Code — v2.1.83
- Tweet @Kling_ai — Piano per team
Questo documento è stato tradotto dalla versione fr alla lingua it utilizzando il modello gpt-5-mini. Per maggiori informazioni sul processo di traduzione, consultare https://gitlab.com/jls42/ai-powered-markdown-translator