Cerca

Claude integra Figma/Canva su mobile e Claude Code parte 2,8x più veloce, GitHub Copilot modifica la sua politica sui dati

Claude integra Figma/Canva su mobile e Claude Code parte 2,8x più veloce, GitHub Copilot modifica la sua politica sui dati

Il 25 e 26 marzo portano diverse annunci strutturali dal lato Anthropic: Claude integra Figma, Canva e Amplitude come strumenti di lavoro accessibili direttamente da mobile, e Claude Code vede l’avvio accelerato di 2,8x grazie a 60 giorni di ottimizzazioni Bun. GitHub Copilot modifica la politica sull’uso dei dati di interazione con un opt-out da disattivare entro il 24 aprile. Google DeepMind lancia Lyria 3 Pro con generazione musicale estesa a 3 minuti, e NVIDIA fonda la Nemotron Coalition durante GTC 2026.


Claude: strumenti di lavoro su mobile (Figma, Canva, Amplitude)

25 marzo — Claude integra ora tre strumenti di lavoro accessibili direttamente dall’app mobile: Figma, Canva e Amplitude. Gli utenti possono così gestire workflow di design, creazione e analisi dal proprio telefono, senza uscire dall’interfaccia Claude.

L’annuncio su X, accompagnato da un video dimostrativo, ha accumulato 1,9 milioni di visualizzazioni in poche ore — segno che l’integrazione di strumenti professionali nell’interfaccia mobile risponde a una forte domanda.

🔗 Annuncio @claudeai su X


Claude Code: avvio 2,8x più rapido, Agent SDK 5,1x

24 marzo — Dopo 60 giorni di ottimizzazioni guidate da Jarred Sumner (creatore di Bun, acquisito da Anthropic nel dicembre 2025), Claude Code si avvia ora 2,8x più velocemente, e l’Agent SDK mostra prestazioni 5,1x migliori.

Questi miglioramenti sono il frutto di lavoro a basso livello sul runtime Bun integrato in Claude Code — ottimizzazioni dell’avvio, gestione della memoria e tempo di risposta iniziale. Ripubblicato da Brian Cherny (@bcherny, team Claude Code), questo thread tecnico illustra concretamente cosa apporta l’integrazione di Bun al cuore degli strumenti Claude.

🔗 Thread @jarredsumner su X


GitHub Copilot: opt-out sui dati di interazione prima del 24 aprile

25 marzo — Mario Rodriguez, direttore prodotto di GitHub, annuncia un aggiornamento della politica sull’uso dei dati di interazione di Copilot. A partire dal 24 aprile 2026, GitHub utilizzerà i dati di interazione degli utenti Copilot Free, Pro e Pro+ — input, output, estratti di codice e contesto associato — per addestrare e migliorare i suoi modelli IA.

Gli utenti interessati possono disabilitare questa condivisione tramite le impostazioni del proprio account prima di tale data. Gli abbonati Copilot Business e Copilot Enterprise non sono interessati da questa modifica — i loro dati restano soggetti agli accordi contrattuali esistenti che escludono l’addestramento.

PianoInteressato da questa modificaOpt-out disponibile
Copilot Free
Copilot Pro
Copilot Pro+
Copilot BusinessNo
Copilot EnterpriseNo

Il punto di svolta è il 24 aprile: gli utenti che non avranno disattivato la condivisione prima di tale data inizieranno a contribuire ai dati di addestramento.

🔗 Aggiornamento politica dati GitHub Copilot 🔗 Annuncio su X


Lyria 3 Pro: tracce musicali fino a 3 minuti con architettura musicale

25 marzo — Google DeepMind lancia Lyria 3 Pro, una versione avanzata del modello di generazione musicale Lyria 3 rilasciato il mese precedente. La novità principale: la capacità di generare tracce fino a 3 minuti, rispetto ai 30 secondi della generazione precedente — un fattore 6.

Il modello include ora l’architettura musicale (musical architecture) — intro, strofe, ritornelli, bridge — che permette di produrre brani con transizioni coerenti e strutture elaborate. I prompt accettano testo, immagini o video come punto di partenza.

PiattaformaAccessoStato
App GeminiAbbonati a pagamentoDisponibile
Google AI Studio + API GeminiSviluppatoriDisponibile con Lyria RealTime
Vertex AIAziendePreview pubblica
Google VidsWorkspace + AI Pro/UltraDistribuzione settimana del 25 marzo
ProducerAIGratuito e a pagamentoEsperienza agentica per musicisti

Lyria 3 Pro è stata utilizzata dal produttore Yung Spielburg per il cortometraggio Google DeepMind “Dear Upstairs Neighbors”, ed è annunciata una collaborazione con il DJ François K per un brano in arrivo.

🔗 Blog ufficiale Google — Lyria 3 Pro 🔗 Annuncio su X


NVIDIA Nemotron Coalition: modelli fondamentali aperti di livello frontier

25 marzo — In occasione della NVIDIA GTC 2026, Jensen Huang annuncia la creazione della NVIDIA Nemotron Coalition, una coalizione globale di costruttori di modelli dedicata allo sviluppo di modelli fondamentali aperti di livello frontier (frontier open foundation models).

Il primo progetto concreto della coalizione sarà un modello di base co-sviluppato da Mistral AI e NVIDIA, con membri che contribuiranno a dati, valutazioni ed expertise di dominio. I panelisti della sessione GTC includono Mira Murati (Thinking Machines Lab), Aravind Srinivas (Perplexity), Arthur Mensch (Mistral), Robin Rombach (Black Forest Labs), oltre a rappresentanti di Cursor e Ai2.

Alcuni numeri messi in evidenza durante l’evento:

  • NVIDIA è ora la più grande organizzazione su Hugging Face, con circa 4.000 membri
  • I modelli Nemotron sono stati scaricati oltre 45 milioni di volte

“Proprietary versus open is not a thing. It’s proprietary and open.”

🇮🇹 La distinzione tra proprietario e aperto non esiste davvero. È proprietario e aperto.Jensen Huang, NVIDIA GTC 2026

🔗 Blog NVIDIA — The Future of AI Is Open and Proprietary


OpenAI: il dietro le quinte del Model Spec e delle valutazioni associate

25 marzo — OpenAI pubblica una spiegazione dettagliata del suo approccio intorno al Model Spec — il quadro pubblico che definisce come i suoi modelli dovrebbero comportarsi. Questo post, firmato da Jason Wolfe (ricercatore OpenAI), ne spiega la filosofia, la struttura e i meccanismi di evoluzione.

Il Model Spec si articola attorno a diversi livelli distinti:

LivelloDescrizione
Intenzioni e impegni pubbliciObiettivi di alto livello: deploy iterativo, evitare danni gravi
Catena di comando (Chain of Command)Regole per risolvere conflitti tra istruzioni OpenAI, sviluppatori e utenti
Regole rigorose (Hard rules)Limiti non modificabili: rischi catastrofici, danni fisici, contenuti illegali
Comportamenti di defaultPunti di partenza modificabili da sviluppatori e utenti
Strumenti di interpretazioneRegole decisionali ed esempi per i casi ambigui

La distinzione centrale: le regole rigorose non sono eludibili (livello “root”), mentre i comportamenti di default sono configurabili — il che permette di massimizzare la libertà degli utenti entro limiti di sicurezza.

OpenAI sostiene che un’IA sufficientemente avanzata non può semplicemente dedurre il comportamento corretto da obiettivi generali come “essere utile e sicura”: queste formulazioni dipendono troppo dal contesto e implicano compromessi di valore. Il Model Spec serve sia come target interno, sia come strumento di trasparenza e meccanismo di coordinamento tra team.

Parallelamente, OpenAI pubblica i Model Spec Evals — una suite di valutazioni di scenari che tenta di coprire le affermazioni del Model Spec con esempi rappresentativi, per misurare gli scostamenti tra comportamento reale del modello e specifica.

🔗 Inside our approach to the Model Spec 🔗 Annuncio su X


Genspark Realtime Voice: assistente vocale hands-free

25 marzo — Genspark lancia Realtime Voice, un assistente vocale in tempo reale completamente hands-free. Il caso d’uso messo in evidenza durante il lancio: l’utilizzo in auto durante il tragitto casa-lavoro.

Le funzionalità annunciate includono la verifica dell’agenda, l’invio di e-mail e messaggi, la ricerca di informazioni e la creazione di playlist per il tragitto. L’assistente può anche generare presentazioni (slides), eseguire ricerche approfondite (deep research) e analizzare dati — tutto tramite voce.

🔗 Annuncio su X


OpenAI Safety Bug Bounty: segnalazioni di rischi IA

25 marzo — OpenAI lancia un programma di bug bounty dedicato alla sicurezza IA, distinto dal programma di sicurezza informatica classico già esistente. Questo nuovo programma accetta segnalazioni di rischi d’abuso che non corrispondono necessariamente a vulnerabilità software tradizionali.

Categoria in perimetroEsempi
Rischi agentici (incluso MCP)Injection di prompt di terze parti, esfiltrazione via agent, azioni non autorizzate su larga scala
Informazioni proprietarie OpenAIGenerazione che rivela informazioni di ragionamento proprietarie
Integrità di account e piattaformeBypass dei controlli anti-automazione, manipolazione dei segnali di fiducia

I jailbreak classici restano fuori perimetro. OpenAI precisa inoltre di condurre campagne private periodiche su tipi specifici di danno — per esempio contenuti bio-rischio in ChatGPT Agent e GPT-5.

🔗 Introducing the OpenAI Safety Bug Bounty program


Codex Creator Challenge: concorso studentesco con 10.000 $ in crediti

25 marzo — OpenAI e Handshake lanciano il Codex Creator Challenge, un concorso rivolto agli studenti per creare progetti reali con Codex. In palio: 10.000 $ in crediti API OpenAI. La sfida invita gli studenti a sperimentare gli strumenti Codex e costruire applicazioni concrete.

🔗 Tweet @OpenAIDevs


ElevenLabs: Guardrails 2.0 in ElevenAgents, certificato AIUC-1

24 marzo — ElevenLabs distribuisce Guardrails 2.0 nella sua piattaforma ElevenAgents. Questo strato di sicurezza consente di controllare il comportamento degli agenti in produzione con policy aziendali personalizzate o protezioni pre-configurate: mantenimento nel tema (on-topic), coerenza del brand (on-brand), resistenza alla manipolazione.

Guardrails 2.0 è certificato AIUC-1 (AI Use Case standard) e include funzionalità di protezione dei dati, scrittura della storia delle conversazioni e monitoraggio post-deploy.

🔗 Annuncio su X


PrismAudio: modello video-to-audio open source di Tongyi Lab (Alibaba)

24 marzo — Tongyi Lab di Alibaba pubblica PrismAudio, un modello video-to-audio (Video-to-Audio). Contrariamente agli approcci V2A (Video-to-Audio) classici che ottimizzano l’insieme con una sola funzione di perdita, PrismAudio adotta un’architettura “Decomposed Multi-CoT” con tre teste specializzate separate — ciascuna dedicata a un aspetto distinto della generazione audio.

Il modello è addestrato con Multi-Dimensional RL e Fast-GRPO per allineare la generazione audio alle preferenze umane. Le risorse (modello, demo, paper arXiv) sono pubblicate tramite HuggingFace, ModelScope e una pagina progetto dedicata.

🔗 Annuncio su X


Claude Code v2.1.83: gestione centralizzata delle impostazioni Enterprise

25 marzo — La versione 2.1.83 di Claude Code introduce la directory drop-in managed-settings.d/, pensata per gli amministratori Enterprise. Questa directory permette alle organizzazioni di gestire centralmente le impostazioni di Claude Code, depositando file di configurazione che si applicano a tutte le postazioni del deployment.

🔗 CHANGELOG Claude Code


Kling AI Team Plan: collaborazione fino a 15 membri

24 marzo — Kling AI lancia il Team Plan, un piano collaborativo che permette a team fino a 15 membri di lavorare insieme sulla piattaforma. Il piano include asset condivisi e l’uso commerciale delle creazioni.

🔗 Annuncio @Kling_ai su X


Manus Desktop: crediti dimezzati fino al 30 marzo

24 marzo — Manus propone una promozione temporanea sulla sua app Desktop: dal 24 al 30 marzo 2026, ogni task eseguito consuma il 50% in meno di crediti. I crediti esistenti valgono quindi il doppio per tutte le attività svolte tramite Manus Desktop durante questo periodo.

🔗 Annuncio su X


NVIDIA dona il driver DRA GPU alla community Kubernetes

24 marzo — A margine della NVIDIA GTC 2026, NVIDIA annuncia la donazione alla community Kubernetes del suo driver Dynamic Resource Allocation (DRA) per GPU. Questo contributo si inserisce nell’impegno open source di NVIDIA e facilita l’allocazione dinamica delle risorse GPU negli ambienti Kubernetes.

🔗 Blog NVIDIA — AI Future Open and Proprietary


Cosa significa

Le due annunci Anthropic di questo periodo sono complementari: l’integrazione mobile di Figma, Canva e Amplitude avvicina Claude ai workflow professionali quotidiani, mentre i guadagni nell’avvio di Claude Code (2,8x) e dell’Agent SDK (5,1x) migliorano concretamente l’esperienza degli sviluppatori che lo usano in modo continuativo. Questi due assi — uso mobile per il grande pubblico e performance per gli sviluppatori — illustrano la doppia traiettoria di Anthropic.

La decisione di GitHub Copilot sui dati di interazione è la più impattante per gli sviluppatori individuali: per la prima volta, gli utenti dei piani consumer (Free, Pro, Pro+) vedono le proprie interazioni potenzialmente utilizzate per l’addestramento. L’opt-out esiste ma deve essere attivato prima del 24 aprile — il breve lasso di tempo è da notare.

La Nemotron Coalition di NVIDIA è un segnale forte sulla strategia open source dell’industria. Riunendo Mistral, Black Forest Labs, Cursor e altri sotto una coalizione formale per sviluppare modelli di livello frontier, NVIDIA posiziona l’open source non più come alternativa ai modelli proprietari, ma come una categoria complementare a sé stante. La frase di Jensen Huang — “proprietary and open”, non “versus” — riassume bene questo riposizionamento. Lyria 3 Pro conferma che la generazione musicale sta progredendo verso formati utilizzabili in produzione: 3 minuti con una struttura coerente (intro, strofe, ritornelli) cambiano la natura del caso d’uso, passando da estratti sperimentali a brani completi. La disponibilità su più piattaforme Google già nella settimana di lancio accelera l’adozione.

La pubblicazione dei Model Spec Evals da parte di OpenAI — una serie di valutazioni che misurano gli scostamenti tra il comportamento del modello e la specifica scritta — è notevole: è uno dei primi tentativi pubblici di misurare oggettivamente l’allineamento di un modello con le proprie regole di condotta.


Fonti

Questo documento è stato tradotto dalla versione fr alla lingua it utilizzando il modello gpt-5-mini. Per maggiori informazioni sul processo di traduzione, consultare https://gitlab.com/jls42/ai-powered-markdown-translator