Questa settimana segna un’accelerazione su tre fronti simultanei: i modelli aperti (Mistral Medium 3.5, NVIDIA Nemotron 3 Nano Omni), l’infrastruttura hardware (Google TPU di ottava generazione) e gli ecosistemi di agenti (Vibe Remote Agents, Claude for Creative Work, GitHub Copilot). ElevenLabs compie inoltre un passo avanti trasformando il suo motore musicale IA in una piattaforma per il grande pubblico con monetizzazione.
Mistral Medium 3.5, Vibe Remote Agents e Le Chat Work Mode
29 aprile — Mistral AI pubblica simultaneamente tre annunci principali: il modello Mistral Medium 3.5, gli agenti remoti (remote agents) Vibe e la modalità Lavoro (Work Mode) in Le Chat.
Mistral Medium 3.5 in anteprima pubblica
Medium 3.5 è un modello dense da 128 miliardi di parametri che unifica il rispetto delle istruzioni, il ragionamento e il codice in un unico insieme di pesi, con una finestra di contesto di 256.000 token. Può essere eseguito in locale su soli quattro GPU.
| Caratteristica | Valore |
|---|---|
| Architettura | Dense 128B |
| Contesto | 256.000 token |
| SWE-Bench Verified | 77,6 % |
| τ³-Telecom | 91,4 |
| Licenza | MIT modificata (open weights) |
| API — token in input | $1,50 / milione |
| API — token in output | $7,50 / milione |
| Self-hosting (GPU min.) | 4 GPU |
Il modello supera Devstral 2 e Qwen3.5-397B-A17B su SWE-Bench Verified, posizionandosi come riferimento tra i modelli di codice open weights al momento del lancio. È disponibile tramite l’API Mistral, Le Chat, Vibe, i terminali NVIDIA (build.nvidia.com) e il microservizio NVIDIA NIM.
Agenti remoti (remote agents) in Vibe
Le sessioni di codice Vibe possono ora essere eseguite nel cloud, senza restare aperte in locale. Più sessioni girano in parallelo mentre lo sviluppatore fa altro. Una sessione locale può essere “teletrasportata” nel cloud con la sua cronologia e il suo stato completo. Alla fine del compito, l’agente apre automaticamente una pull request su GitHub e notifica lo sviluppatore.
Vibe si integra nativamente con GitHub (codice + PR), Linear e Jira (ticket), Sentry (incidenti), Slack e Teams (notifiche). Ogni sessione viene eseguita in una sessione isolata.
Modalità Lavoro (Work Mode) in Le Chat (anteprima)
Una nuova modalità agentica per attività complesse in Le Chat: ricerca multi-fonte, sintesi documentale, smistamento della casella email, creazione di ticket Jira, invio di riepiloghi su Slack. I connettori sono attivati per impostazione predefinita in modalità Lavoro. Ogni azione visibile richiede un’approvazione esplicita per le operazioni sensibili.
Google TPU di ottava generazione — TPU 8t e TPU 8i
29 aprile — Google svela la sua ottava generazione di chip TPU (Tensor Processing Unit), annunciata durante Google Cloud Next ‘26 la settimana precedente. Due chip distinti compongono questa generazione, ciascuno ottimizzato per una fase diversa del ciclo dell’IA.
A decade in the making, the chips for the agentic era have arrived. At @GoogleCloud’s Next ‘26 event last week, we unveiled our eighth-generation TPUs. TPU 8t: 3x more powerful than previous gen, 10x faster data movement, 97% productive resource utilization, training time from months to weeks. TPU 8i: tripled internal memory, 80% better perf/dollar, 5x latency reduction.
🇮🇹 Dopo un decennio di sviluppo, sono arrivate le chip per l’era agentica. Durante l’evento Next ‘26 di @GoogleCloud della scorsa settimana, abbiamo svelato i nostri TPU di ottava generazione. TPU 8t: 3 volte più potente della generazione precedente, movimento dei dati 10 volte più rapido, 97% di utilizzo produttivo delle risorse, tempo di addestramento ridotto da mesi a settimane. TPU 8i: memoria interna triplicata, prestazioni per dollaro migliori dell’80%, latenza ridotta di 5 volte. — @GoogleAI su X
TPU 8t — addestramento dei modelli
| Miglioramento | Dettaglio |
|---|---|
| Potenza grezza | 3× superiore alla generazione precedente |
| Throughput dei dati | 10× più rapido (storage → chip) |
| Utilizzo produttivo | 97 % delle risorse (rilevamento e rerouting automatico dei guasti) |
| Impatto | Tempo di addestramento ridotto da diversi mesi a poche settimane |
TPU 8i — inferenza per gli agenti IA
| Miglioramento | Dettaglio |
|---|---|
| Memoria interna | Triplicata per gestire ragionamenti complessi in più fasi |
| Efficienza costo | +80 % di performance per dollaro speso |
| Latenza | Ridotta di 5× grazie a un nuovo motore integrato |
Questi chip sono progettati per l’era agentica: il TPU 8t accelera la creazione dei modelli, il TPU 8i consente a questi modelli di agire (prenotare un volo, gestire un’agenda) in tempo quasi reale. Google posiziona questa doppia architettura come la base tecnologica del prossimo decennio.
Claude for Creative Work — Blender, Autodesk Fusion, Adobe e altri 5 connettori MCP
28 aprile — Anthropic lancia una serie di connettori MCP (Model Context Protocol) ufficiali destinati ai professionisti delle industrie creative, in partnership con Blender, Autodesk, Adobe, Ableton e Splice.
| Strumento | Utilizzo |
|---|---|
| Blender | Debug di scene 3D, creazione di strumenti, modifiche in batch su tutti gli oggetti |
| Autodesk Fusion | Creazione e modifica di modelli 3D tramite linguaggio naturale |
| Adobe Creative Cloud | Realizzazione di immagini, video e design tramite 50+ strumenti CC |
| Ableton Live e Push | Esplorazione della documentazione ufficiale del prodotto |
| Splice | Ricerca di sample royalty-free direttamente da Claude |
| Canva Affinity | Automazione delle attività ripetitive di produzione |
| SketchUp | Punto di partenza per la modellazione 3D tramite descrizione testuale |
| Resolume / Touchdesigner | Controllo in tempo reale tramite linguaggio naturale per VJ e artisti visivi |
“Claude now connects to the tools creative professionals already use. With the new Blender connector, you can debug a scene, build new tools, or batch-apply changes across every object, directly from Claude.”
🇮🇹 Claude ora si connette agli strumenti che i professionisti creativi usano già. Con il nuovo connettore Blender, puoi eseguire il debug di una scena, creare nuovi strumenti o applicare modifiche in batch a tutti gli oggetti, direttamente da Claude. — @claudeai su X
Anthropic ha inoltre aderito al Blender Development Fund come donatore patron, sostenendo lo sviluppo del software libero. Il tweet principale ha generato più di 10 milioni di visualizzazioni in meno di 24 ore (il tweet Autodesk Fusion ha raggiunto 11 milioni), rendendolo uno degli annunci più virali di Anthropic degli ultimi mesi.
I casi d’uso messi in evidenza: apprendimento di software complessi, estensione degli strumenti tramite codice (script, plugin, sistemi generativi via Claude Code), ponte tra strumenti in una pipeline, automazione di attività ripetitive (elaborazione in batch, scaffolding).
NVIDIA Nemotron 3 Nano Omni — modello omnimodale open source 30B
28 aprile — NVIDIA lancia Nemotron 3 Nano Omni, un modello omnimodale open source che unifica visione, audio e linguaggio in un’unica architettura.
| Parametro | Valore |
|---|---|
| Architettura | Ibrido MoE 30B-A3B (30B totale, 3B attivi) |
| Contesto | 256K token |
| Modalità (input) | Testo, immagini, audio, video, documenti, grafici, interfacce |
| Modalità (output) | Testo |
| Efficienza | 9× più throughput rispetto agli altri modelli omnimodali open |
| Disponibilità | Hugging Face, OpenRouter, build.nvidia.com, 25+ piattaforme partner |
Il modello eccelle in tre casi d’uso: il computer use (navigazione di interfacce grafiche in risoluzione nativa 1920×1080), l’intelligenza documentale (interpretazione di PDF, tabelle, grafici, screenshot) e il mantenimento del contesto audio-video in un unico flusso di ragionamento.
Organizzazioni come Aible, H Company, Palantir, Foxconn e Oracle stanno valutando il modello fin dal lancio. H Company lo integra nel proprio agente di computer use.
“To build useful agents, you can’t wait seconds for a model to interpret a screen. By building on Nemotron 3 Nano Omni, our agents can rapidly interpret full HD screen recordings — something that wasn’t practical before.”
🇮🇹 Per costruire agenti utili, non si può aspettare per secondi che un modello interpreti uno schermo. Basandosi su Nemotron 3 Nano Omni, i nostri agenti possono interpretare rapidamente registrazioni dello schermo in full HD — cosa che prima non era pratica. — Gautier Cloix, CEO di H Company
La famiglia Nemotron raggiunge inoltre 50 milioni di download cumulativi su tutte le varianti Nano/Super/Ultra in un anno.
ElevenMusic — piattaforma musicale IA (scoperta, remix, creazione, monetizzazione)
29 aprile — ElevenLabs lancia ElevenMusic, una piattaforma musicale IA che collega ascolto, remix e creazione originale in un unico sistema, con monetizzazione diretta per gli artisti.
| Funzionalità | Descrizione |
|---|---|
| Scoperta | 4.000+ artisti indipendenti, catalogo curato |
| Remix | Cambiare genere, tempo, reinterpretare un brano |
| Creazione | A partire da testi, melodia o atmosfera |
| Pubblicazione | Distribuzione + monetizzazione tramite coinvolgimento dei fan |
Il modello economico si ispira alla Voice Library di ElevenLabs, che ha già versato $11 milioni ai suoi creatori. Gli artisti pubblicano e guadagnano in base al coinvolgimento degli ascoltatori, senza un’etichetta intermediaria.
ElevenMusic viene lanciata con Eleven Album Vol. 2, una compilation che include Danger Twins e Justin Love, concepita per essere sperimentata e remixata nella piattaforma. Kevin Jonas Sr. (Jonas Group Entertainment) e Amy Stroup (Danger Twins) fanno parte dei partner artistici al lancio.
“Fans want to feel like they’re part of the music, the songwriters, and the artists. ElevenMusic gives them a way in, turning a song into something people can step into, not just listen to.”
🇮🇹 I fan vogliono sentirsi parte della musica, degli autori e degli artisti. ElevenMusic offre loro un modo per entrarci, trasformando una canzone in qualcosa in cui le persone possono entrare, non soltanto ascoltare. — Kevin Jonas Sr., Fondatore e Presidente di Jonas Group Entertainment
La piattaforma è disponibile su app mobile e web dal 29 aprile 2026.
🔗 Annuncio di @ElevenLabs su X — 🔗 Blog di ElevenLabs
GitHub Copilot code review — doppia fatturazione dal 1° giugno 2026
27 aprile — GitHub annuncia che a partire dal 1° giugno 2026, ogni revisione del codice automatizzata da GitHub Copilot consumerà minuti GitHub Actions oltre ai crediti IA già previsti dal nuovo modello a consumo.
Finora, le revisioni del codice di Copilot consumavano soltanto unità di richieste premium (premium request units, PRU). Dal 1° giugno, due contatori si attiveranno simultaneamente per i repository privati:
| Contatore | Dettaglio |
|---|---|
| IA Credits | Qualsiasi utilizzo di Copilot (inclusa la code review) fatturato in crediti IA, conformemente al modello a consumo |
| Minutes GitHub Actions | Consumati dal plafond del piano per ogni revisione su repository privato; minuti aggiuntivi fatturati alle tariffe standard Actions |
Questo doppio conteggio si spiega con l’architettura agentica di Copilot code review: lo strumento si basa su runner GitHub-hosted per analizzare il contesto esteso del repository e produrre feedback più pertinenti.
Piani interessati: Copilot Pro, Pro+, Business, Enterprise — comprese le revisioni avviate da utenti senza licenza tramite fatturazione diretta all’organizzazione.
Repository pubblici: nessun cambiamento, i minuti Actions restano gratuiti.
Per prepararsi prima del 1° giugno:
- Verificare il consumo attuale di Actions nelle impostazioni di fatturazione
- Adeguare, se necessario, i limiti di spesa (spending limits) di Actions
- Informare i responsabili della fatturazione dell’organizzazione
OpenAI DevDay 2026 — San Francisco, 29 settembre
29 aprile — OpenAI annuncia il ritorno del suo evento annuale per sviluppatori: OpenAI DevDay 2026 si terrà il 29 settembre a San Francisco. Le iscrizioni ufficiali non sono ancora aperte.
Per incoraggiare l’attesa, OpenAI lancia un concorso: gli sviluppatori che costruiscono qualcosa con GPT-5.5 e la generazione di immagini possono provare a vincere un invito anticipato. La procedura: inviare un link al progetto accompagnato da una nota che spiega come è stato costruito, con l’hashtag ufficiale #OpenAIDevDay2026.
| Dettaglio | Valore |
|---|---|
| Data | 29 settembre 2026 |
| Luogo | San Francisco |
| Hashtag ufficiale | #OpenAIDevDay2026 |
| Visualizzazioni tweet (prime ore) | 239.000+ |
L’annuncio è stato pubblicato con cinque mesi di anticipo, cosa insolitamente precoce per un DevDay. Le edizioni precedenti erano state il contesto dei lanci di prodotto più strutturanti di OpenAI per la comunità degli sviluppatori: nel 2023 vi erano stati presentati GPT-4 Turbo e le Assistants API. Con l’attuale accelerazione del ritmo delle uscite — GPT-5.5, generazione di immagini, Codex CLI — DevDay 2026 si delinea come una tappa importante del calendario per i team tecnici che integrano i modelli OpenAI in produzione.
Un thread separato invita gli sviluppatori a condividere fin da ora le loro creazioni. L’account @OpenAIDevs ha rilanciato l’annuncio nei minuti successivi alla pubblicazione principale.
Ecosistema agenti e nuove integrazioni
Claude Code CLI v2.1.120–2.1.123 — 50+ correzioni
28 aprile — Il team Claude Code dettaglia le correzioni apportate nelle ultime quattro versioni del CLI (v2.1.120 a v2.1.123): oltre 50 miglioramenti di stabilità e performance.
| Metrica | Valore |
|---|---|
| Versioni interessate | v2.1.120, v2.1.121, v2.1.122, v2.1.123 |
| Numero di correzioni | 50+ |
Guadagno di performance /resume | Fino al 67% più veloce |
| Visualizzazioni thread @ClaudeDevs | 493 k |
I cinque assi: sessioni lunghe accelerate (/resume fino al 67% più veloce), autenticazione macOS stabilizzata (una dozzina di correzioni keychain), memoria ridotta su Linux, WebFetch senza blocchi sulle pagine voluminose, copia-incolla che preserva le interruzioni di riga da Windows e Xcode.
OpenAI × AWS — Codex e Managed Agents su Amazon Bedrock
28 aprile — OpenAI e AWS estendono la loro partnership strategica su tre assi: accesso ai modelli OpenAI negli ambienti AWS, Codex su Bedrock (anteprima limitata, per le organizzazioni che vogliono mantenere i propri dati nell’infrastruttura Amazon) e Bedrock Managed Agents alimentati da OpenAI (disponibile immediatamente). Codex conta oltre 4 milioni di utenti settimanali.
Copilot cloud agent si avvia il 20% più velocemente
27 aprile — GitHub Copilot cloud agent ora si avvia oltre il 20% più velocemente grazie ad ambienti runner preconfigurati tramite immagini custom GitHub Actions. Questo miglioramento si aggiunge alla riduzione del 50% già rilasciata a marzo 2026.
Gemini — generazione di file scaricabili
29 aprile — Gemini può ora creare file scaricabili direttamente dalla chat: PDF, Word (.docx), Excel (.xlsx), Google Docs/Sheets/Slides, CSV, LaTeX, RTF e Markdown. Disponibile immediatamente per tutti gli utenti web e mobile.
Mistral Workflows in anteprima pubblica
27 aprile — Mistral AI lancia Workflows in anteprima pubblica, un livello di orchestrazione enterprise costruito sul motore di esecuzione durevole (durable execution engine) di Temporal (la stessa infrastruttura di Netflix, Stripe, Salesforce). I flussi si scrivono in Python tramite l’SDK Mistral v3.0, poi vengono attivati da Le Chat dai team business. Le organizzazioni ASML, France Travail e La Banque Postale lo utilizzano già.
Qwen FlashQLA — kernel di attenzione lineare
29 aprile — Qwen pubblica FlashQLA, una libreria di kernel (kernels) di attenzione lineare ad alte prestazioni costruita su TileLang, progettata per l’IA agentica su dispositivi personali: guadagni di 2–3× nel passaggio in avanti (forward) e 2× nel passaggio all’indietro (backward). Pubblicato open source su GitHub.
GPT Image 2 integrato in Manus Slides
29 aprile — Manus integra GPT Image 2 in Manus Slides: modifica point-and-click delle immagini, sostituzione tramite prompt, generazione di note di presentazione, esportazione verso Google Slides, PowerPoint, PDF, Google Drive e OneDrive.
Salesforce connesso a Genspark
29 aprile — Genspark integra Salesforce nel suo ecosistema di agenti: connessione tramite Genspark Claw (installazione CLI tramite istruzione) o Super Agent (connessione diretta). Casi d’uso: elaborazione automatica delle richieste clienti, dashboard trimestrali, gestione automatizzata della pipeline commerciale.
GPT-5.5 e ChatGPT Images 2.0 su Genspark
28 aprile — Genspark integra GPT-5.5 nella sua chat IA e ChatGPT Images 2.0 (GPT Image 2) nel suo generatore di immagini, accessibili rispettivamente su genspark.ai/agents e genspark.ai/ai_image.
Pika Agents — interfaccia conversazionale creativa
28 aprile — Pika lancia i Pika Agents: un’interfaccia di creazione video che sostituisce la casella di prompt con un agente IA personalizzato (voce, volto, personalità configurati dall’utente). L’agente comprende le intenzioni creative in linguaggio naturale e assembla, perfeziona e produce in un’unica conversazione.
Codex seats a $0 per ChatGPT Business fino a fine giugno
29 aprile — OpenAI consente agli abbonati idonei a ChatGPT Business di aggiungere seat Codex senza costo per seat fino a fine giugno 2026, accompagnando l’espansione di Codex su AWS.
Problema di Erdős vecchio di 60 anni risolto con GPT-5.5
28 aprile — OpenAI pubblica un episodio di podcast in cui Sébastien Bubeck e Ernest Ryu ripercorrono la risoluzione di un problema matematico aperto da 60 anni, attribuito a Paul Erdős, con l’aiuto di GPT-5.5. Il tweet supera le 399.000 visualizzazioni.
Brevi
-
DeepSeek-V4-Pro: promo -75% prorogata — La riduzione del 75% sull’API DeepSeek-V4-Pro è estesa fino al 31 maggio 2026. Tariffe promozionali: $0,003625/M token in input (cache hit), $0,435 (cache miss), $0,87 in output. 🔗 Tweet DeepSeek
-
Google DeepMind — Experience AI in America Latina — Il programma educativo Experience AI (Raspberry Pi Foundation) si estende in America Latina con l’obiettivo di formare 24.000 insegnanti e raggiungere 1,25 milioni di studenti entro il 2028, finanziato con $4,6 milioni da Google.org. 🔗 Tweet Google DeepMind
-
GPT-5.3-Codex rimosso dal selettore Copilot Student — A partire dal 27 aprile 2026, GPT-5.3-Codex non è più selezionabile manualmente nel piano Copilot Student; resta accessibile tramite selezione automatica. 🔗 Changelog GitHub
-
Responses API — domini bloccati per la ricerca web — La Responses API di OpenAI consente ora di bloccare domini specifici mantenendo attiva la ricerca web, per escludere fonti precise dai risultati. 🔗 Tweet @charlierguo
-
OpenAI — impegno per la sicurezza della comunità — OpenAI pubblica un articolo che dettaglia le sue pratiche di sicurezza in ChatGPT: mitigazione dei rischi nel modello, monitoraggio automatizzato, messa in contatto con risorse di aiuto e segnalazione alle autorità nei casi gravi. Pubblicazione di trasparenza senza nuova funzionalità. 🔗 Annuncio OpenAI
Cosa significa
La corsa ai modelli aperti si intensifica. Mistral Medium 3.5 (128B, SWE-Bench 77,6%) e NVIDIA Nemotron 3 Nano Omni (30B, 9× più efficiente degli altri omnimodali open) arrivano simultaneamente con licenze permissive. Entrambi i modelli si posizionano come alternative credibili alle frontiere chiuse: Mistral sul codice e il ragionamento, Nemotron sulla multimodalità agentica. Questa pressione mantiene un divario sempre meno ampio tra modelli proprietari e open weights.
L’infrastruttura hardware resta il collo di bottiglia strategico. I TPU di 8ª generazione di Google (3× in addestramento, 5× meno latenza in inferenza) illustrano che la corsa all’IA si gioca anche a livello del silicio. L’annuncio di Google Cloud Next ‘26 posiziona l’infrastruttura Google come un vantaggio competitivo duraturo rispetto alle GPU NVIDIA — anche se entrambe coesistono nei deployment reali.
L’ecosistema agentico si frammenta in specializzazioni verticali. Questa settimana, gli agenti IA si insediano negli strumenti creativi (Claude for Creative Work con 8+ connettori MCP), nello sviluppo software (Vibe Remote Agents, Copilot cloud agent 20% più veloce), nella musica (ElevenMusic), nel video (Pika Agents), nei CRM (Salesforce in Genspark) e nei workflow enterprise (Mistral Workflows). La domanda non è più «l’IA può farlo?» ma «in quale strumento specializzato e secondo quale modello di fatturazione?».
La fatturazione a consumo trasforma i modelli economici degli sviluppatori. Il passaggio di GitHub Copilot code review a un doppio conteggio (crediti IA + minuti Actions) a partire dal 1° giugno, combinato con l’offerta Codex seats a $0 per ChatGPT Business, illustra una dinamica: gli editori sovvenzionano l’adozione (gratuità temporanea, promo -75% DeepSeek) per creare abitudini prima di normalizzare la fatturazione a consumo. I team tecnici hanno interesse a verificare le proprie voci di spesa IA prima di giugno.
Fonti
- Mistral Medium 3.5 + Vibe Remote Agents
- Annuncio @mistralvibe su X
- Mistral Workflows
- Google TPU di 8ª generazione — @GoogleAI su X
- Claude for Creative Work — Anthropic
- NVIDIA Nemotron 3 Nano Omni — Blog NVIDIA
- ElevenMusic — Blog ElevenLabs
- GitHub Copilot code review → minuti Actions
- Copilot cloud agent 20% più veloce
- OpenAI DevDay 2026 — @OpenAI su X
- OpenAI × AWS
- Codex seats $0 — @OpenAIDevs su X
- Problema di Erdős — @OpenAI su X
- Gemini generazione di file — Blog Google
- Qwen FlashQLA — GitHub
- GPT Image 2 in Manus Slides
- Salesforce in Genspark
- GPT-5.5 e ChatGPT Images 2.0 su Genspark
- Pika Agents
- Claude Code CLI v2.1.123 — @ClaudeDevs su X
- Promo DeepSeek-V4-Pro prorogata
- Google DeepMind Experience AI America Latina
- GPT-5.3-Codex rimosso da Copilot Student
- Responses API domini bloccati
- OpenAI impegno per la sicurezza della comunità
Questo documento è stato tradotto dalla versione fr alla lingua it utilizzando il modello gpt-5.4. Per ulteriori informazioni sul processo di traduzione, consultare https://gitlab.com/jls42/ai-powered-markdown-translator