Cerca

Mistral Medium 3.5 e Vibe Remote Agents, Google TPU di ottava generazione, Claude for Creative Work

Mistral Medium 3.5 e Vibe Remote Agents, Google TPU di ottava generazione, Claude for Creative Work

Questa settimana segna un’accelerazione su tre fronti simultanei: i modelli aperti (Mistral Medium 3.5, NVIDIA Nemotron 3 Nano Omni), l’infrastruttura hardware (Google TPU di ottava generazione) e gli ecosistemi di agenti (Vibe Remote Agents, Claude for Creative Work, GitHub Copilot). ElevenLabs compie inoltre un passo avanti trasformando il suo motore musicale IA in una piattaforma per il grande pubblico con monetizzazione.


Mistral Medium 3.5, Vibe Remote Agents e Le Chat Work Mode

29 aprile — Mistral AI pubblica simultaneamente tre annunci principali: il modello Mistral Medium 3.5, gli agenti remoti (remote agents) Vibe e la modalità Lavoro (Work Mode) in Le Chat.

Mistral Medium 3.5 in anteprima pubblica

Medium 3.5 è un modello dense da 128 miliardi di parametri che unifica il rispetto delle istruzioni, il ragionamento e il codice in un unico insieme di pesi, con una finestra di contesto di 256.000 token. Può essere eseguito in locale su soli quattro GPU.

CaratteristicaValore
ArchitetturaDense 128B
Contesto256.000 token
SWE-Bench Verified77,6 %
τ³-Telecom91,4
LicenzaMIT modificata (open weights)
API — token in input$1,50 / milione
API — token in output$7,50 / milione
Self-hosting (GPU min.)4 GPU

Il modello supera Devstral 2 e Qwen3.5-397B-A17B su SWE-Bench Verified, posizionandosi come riferimento tra i modelli di codice open weights al momento del lancio. È disponibile tramite l’API Mistral, Le Chat, Vibe, i terminali NVIDIA (build.nvidia.com) e il microservizio NVIDIA NIM.

Agenti remoti (remote agents) in Vibe

Le sessioni di codice Vibe possono ora essere eseguite nel cloud, senza restare aperte in locale. Più sessioni girano in parallelo mentre lo sviluppatore fa altro. Una sessione locale può essere “teletrasportata” nel cloud con la sua cronologia e il suo stato completo. Alla fine del compito, l’agente apre automaticamente una pull request su GitHub e notifica lo sviluppatore.

Vibe si integra nativamente con GitHub (codice + PR), Linear e Jira (ticket), Sentry (incidenti), Slack e Teams (notifiche). Ogni sessione viene eseguita in una sessione isolata.

Modalità Lavoro (Work Mode) in Le Chat (anteprima)

Una nuova modalità agentica per attività complesse in Le Chat: ricerca multi-fonte, sintesi documentale, smistamento della casella email, creazione di ticket Jira, invio di riepiloghi su Slack. I connettori sono attivati per impostazione predefinita in modalità Lavoro. Ogni azione visibile richiede un’approvazione esplicita per le operazioni sensibili.

🔗 Annuncio di Mistral su X


Google TPU di ottava generazione — TPU 8t e TPU 8i

29 aprile — Google svela la sua ottava generazione di chip TPU (Tensor Processing Unit), annunciata durante Google Cloud Next ‘26 la settimana precedente. Due chip distinti compongono questa generazione, ciascuno ottimizzato per una fase diversa del ciclo dell’IA.

A decade in the making, the chips for the agentic era have arrived. At @GoogleCloud’s Next ‘26 event last week, we unveiled our eighth-generation TPUs. TPU 8t: 3x more powerful than previous gen, 10x faster data movement, 97% productive resource utilization, training time from months to weeks. TPU 8i: tripled internal memory, 80% better perf/dollar, 5x latency reduction.

🇮🇹 Dopo un decennio di sviluppo, sono arrivate le chip per l’era agentica. Durante l’evento Next ‘26 di @GoogleCloud della scorsa settimana, abbiamo svelato i nostri TPU di ottava generazione. TPU 8t: 3 volte più potente della generazione precedente, movimento dei dati 10 volte più rapido, 97% di utilizzo produttivo delle risorse, tempo di addestramento ridotto da mesi a settimane. TPU 8i: memoria interna triplicata, prestazioni per dollaro migliori dell’80%, latenza ridotta di 5 volte.@GoogleAI su X

TPU 8t — addestramento dei modelli

MiglioramentoDettaglio
Potenza grezza3× superiore alla generazione precedente
Throughput dei dati10× più rapido (storage → chip)
Utilizzo produttivo97 % delle risorse (rilevamento e rerouting automatico dei guasti)
ImpattoTempo di addestramento ridotto da diversi mesi a poche settimane

TPU 8i — inferenza per gli agenti IA

MiglioramentoDettaglio
Memoria internaTriplicata per gestire ragionamenti complessi in più fasi
Efficienza costo+80 % di performance per dollaro speso
LatenzaRidotta di 5× grazie a un nuovo motore integrato

Questi chip sono progettati per l’era agentica: il TPU 8t accelera la creazione dei modelli, il TPU 8i consente a questi modelli di agire (prenotare un volo, gestire un’agenda) in tempo quasi reale. Google posiziona questa doppia architettura come la base tecnologica del prossimo decennio.


Claude for Creative Work — Blender, Autodesk Fusion, Adobe e altri 5 connettori MCP

28 aprile — Anthropic lancia una serie di connettori MCP (Model Context Protocol) ufficiali destinati ai professionisti delle industrie creative, in partnership con Blender, Autodesk, Adobe, Ableton e Splice.

StrumentoUtilizzo
BlenderDebug di scene 3D, creazione di strumenti, modifiche in batch su tutti gli oggetti
Autodesk FusionCreazione e modifica di modelli 3D tramite linguaggio naturale
Adobe Creative CloudRealizzazione di immagini, video e design tramite 50+ strumenti CC
Ableton Live e PushEsplorazione della documentazione ufficiale del prodotto
SpliceRicerca di sample royalty-free direttamente da Claude
Canva AffinityAutomazione delle attività ripetitive di produzione
SketchUpPunto di partenza per la modellazione 3D tramite descrizione testuale
Resolume / TouchdesignerControllo in tempo reale tramite linguaggio naturale per VJ e artisti visivi

“Claude now connects to the tools creative professionals already use. With the new Blender connector, you can debug a scene, build new tools, or batch-apply changes across every object, directly from Claude.”

🇮🇹 Claude ora si connette agli strumenti che i professionisti creativi usano già. Con il nuovo connettore Blender, puoi eseguire il debug di una scena, creare nuovi strumenti o applicare modifiche in batch a tutti gli oggetti, direttamente da Claude.@claudeai su X

Anthropic ha inoltre aderito al Blender Development Fund come donatore patron, sostenendo lo sviluppo del software libero. Il tweet principale ha generato più di 10 milioni di visualizzazioni in meno di 24 ore (il tweet Autodesk Fusion ha raggiunto 11 milioni), rendendolo uno degli annunci più virali di Anthropic degli ultimi mesi.

I casi d’uso messi in evidenza: apprendimento di software complessi, estensione degli strumenti tramite codice (script, plugin, sistemi generativi via Claude Code), ponte tra strumenti in una pipeline, automazione di attività ripetitive (elaborazione in batch, scaffolding).

🔗 Articolo di Anthropic


NVIDIA Nemotron 3 Nano Omni — modello omnimodale open source 30B

28 aprile — NVIDIA lancia Nemotron 3 Nano Omni, un modello omnimodale open source che unifica visione, audio e linguaggio in un’unica architettura.

ParametroValore
ArchitetturaIbrido MoE 30B-A3B (30B totale, 3B attivi)
Contesto256K token
Modalità (input)Testo, immagini, audio, video, documenti, grafici, interfacce
Modalità (output)Testo
Efficienza9× più throughput rispetto agli altri modelli omnimodali open
DisponibilitàHugging Face, OpenRouter, build.nvidia.com, 25+ piattaforme partner

Il modello eccelle in tre casi d’uso: il computer use (navigazione di interfacce grafiche in risoluzione nativa 1920×1080), l’intelligenza documentale (interpretazione di PDF, tabelle, grafici, screenshot) e il mantenimento del contesto audio-video in un unico flusso di ragionamento.

Organizzazioni come Aible, H Company, Palantir, Foxconn e Oracle stanno valutando il modello fin dal lancio. H Company lo integra nel proprio agente di computer use.

“To build useful agents, you can’t wait seconds for a model to interpret a screen. By building on Nemotron 3 Nano Omni, our agents can rapidly interpret full HD screen recordings — something that wasn’t practical before.”

🇮🇹 Per costruire agenti utili, non si può aspettare per secondi che un modello interpreti uno schermo. Basandosi su Nemotron 3 Nano Omni, i nostri agenti possono interpretare rapidamente registrazioni dello schermo in full HD — cosa che prima non era pratica. — Gautier Cloix, CEO di H Company

La famiglia Nemotron raggiunge inoltre 50 milioni di download cumulativi su tutte le varianti Nano/Super/Ultra in un anno.

🔗 Blog di NVIDIA


ElevenMusic — piattaforma musicale IA (scoperta, remix, creazione, monetizzazione)

29 aprile — ElevenLabs lancia ElevenMusic, una piattaforma musicale IA che collega ascolto, remix e creazione originale in un unico sistema, con monetizzazione diretta per gli artisti.

FunzionalitàDescrizione
Scoperta4.000+ artisti indipendenti, catalogo curato
RemixCambiare genere, tempo, reinterpretare un brano
CreazioneA partire da testi, melodia o atmosfera
PubblicazioneDistribuzione + monetizzazione tramite coinvolgimento dei fan

Il modello economico si ispira alla Voice Library di ElevenLabs, che ha già versato $11 milioni ai suoi creatori. Gli artisti pubblicano e guadagnano in base al coinvolgimento degli ascoltatori, senza un’etichetta intermediaria.

ElevenMusic viene lanciata con Eleven Album Vol. 2, una compilation che include Danger Twins e Justin Love, concepita per essere sperimentata e remixata nella piattaforma. Kevin Jonas Sr. (Jonas Group Entertainment) e Amy Stroup (Danger Twins) fanno parte dei partner artistici al lancio.

“Fans want to feel like they’re part of the music, the songwriters, and the artists. ElevenMusic gives them a way in, turning a song into something people can step into, not just listen to.”

🇮🇹 I fan vogliono sentirsi parte della musica, degli autori e degli artisti. ElevenMusic offre loro un modo per entrarci, trasformando una canzone in qualcosa in cui le persone possono entrare, non soltanto ascoltare. — Kevin Jonas Sr., Fondatore e Presidente di Jonas Group Entertainment

La piattaforma è disponibile su app mobile e web dal 29 aprile 2026.

🔗 Annuncio di @ElevenLabs su X — 🔗 Blog di ElevenLabs


GitHub Copilot code review — doppia fatturazione dal 1° giugno 2026

27 aprile — GitHub annuncia che a partire dal 1° giugno 2026, ogni revisione del codice automatizzata da GitHub Copilot consumerà minuti GitHub Actions oltre ai crediti IA già previsti dal nuovo modello a consumo.

Finora, le revisioni del codice di Copilot consumavano soltanto unità di richieste premium (premium request units, PRU). Dal 1° giugno, due contatori si attiveranno simultaneamente per i repository privati:

ContatoreDettaglio
IA CreditsQualsiasi utilizzo di Copilot (inclusa la code review) fatturato in crediti IA, conformemente al modello a consumo
Minutes GitHub ActionsConsumati dal plafond del piano per ogni revisione su repository privato; minuti aggiuntivi fatturati alle tariffe standard Actions

Questo doppio conteggio si spiega con l’architettura agentica di Copilot code review: lo strumento si basa su runner GitHub-hosted per analizzare il contesto esteso del repository e produrre feedback più pertinenti.

Piani interessati: Copilot Pro, Pro+, Business, Enterprise — comprese le revisioni avviate da utenti senza licenza tramite fatturazione diretta all’organizzazione.

Repository pubblici: nessun cambiamento, i minuti Actions restano gratuiti.

Per prepararsi prima del 1° giugno:

  • Verificare il consumo attuale di Actions nelle impostazioni di fatturazione
  • Adeguare, se necessario, i limiti di spesa (spending limits) di Actions
  • Informare i responsabili della fatturazione dell’organizzazione

🔗 Changelog di GitHub


OpenAI DevDay 2026 — San Francisco, 29 settembre

29 aprile — OpenAI annuncia il ritorno del suo evento annuale per sviluppatori: OpenAI DevDay 2026 si terrà il 29 settembre a San Francisco. Le iscrizioni ufficiali non sono ancora aperte.

Per incoraggiare l’attesa, OpenAI lancia un concorso: gli sviluppatori che costruiscono qualcosa con GPT-5.5 e la generazione di immagini possono provare a vincere un invito anticipato. La procedura: inviare un link al progetto accompagnato da una nota che spiega come è stato costruito, con l’hashtag ufficiale #OpenAIDevDay2026.

DettaglioValore
Data29 settembre 2026
LuogoSan Francisco
Hashtag ufficiale#OpenAIDevDay2026
Visualizzazioni tweet (prime ore)239.000+

L’annuncio è stato pubblicato con cinque mesi di anticipo, cosa insolitamente precoce per un DevDay. Le edizioni precedenti erano state il contesto dei lanci di prodotto più strutturanti di OpenAI per la comunità degli sviluppatori: nel 2023 vi erano stati presentati GPT-4 Turbo e le Assistants API. Con l’attuale accelerazione del ritmo delle uscite — GPT-5.5, generazione di immagini, Codex CLI — DevDay 2026 si delinea come una tappa importante del calendario per i team tecnici che integrano i modelli OpenAI in produzione.

Un thread separato invita gli sviluppatori a condividere fin da ora le loro creazioni. L’account @OpenAIDevs ha rilanciato l’annuncio nei minuti successivi alla pubblicazione principale.

🔗 Annuncio OpenAI su X


Ecosistema agenti e nuove integrazioni

Claude Code CLI v2.1.120–2.1.123 — 50+ correzioni

28 aprile — Il team Claude Code dettaglia le correzioni apportate nelle ultime quattro versioni del CLI (v2.1.120 a v2.1.123): oltre 50 miglioramenti di stabilità e performance.

MetricaValore
Versioni interessatev2.1.120, v2.1.121, v2.1.122, v2.1.123
Numero di correzioni50+
Guadagno di performance /resumeFino al 67% più veloce
Visualizzazioni thread @ClaudeDevs493 k

I cinque assi: sessioni lunghe accelerate (/resume fino al 67% più veloce), autenticazione macOS stabilizzata (una dozzina di correzioni keychain), memoria ridotta su Linux, WebFetch senza blocchi sulle pagine voluminose, copia-incolla che preserva le interruzioni di riga da Windows e Xcode.

🔗 Thread @ClaudeDevs

OpenAI × AWS — Codex e Managed Agents su Amazon Bedrock

28 aprile — OpenAI e AWS estendono la loro partnership strategica su tre assi: accesso ai modelli OpenAI negli ambienti AWS, Codex su Bedrock (anteprima limitata, per le organizzazioni che vogliono mantenere i propri dati nell’infrastruttura Amazon) e Bedrock Managed Agents alimentati da OpenAI (disponibile immediatamente). Codex conta oltre 4 milioni di utenti settimanali.

🔗 Annuncio OpenAI

Copilot cloud agent si avvia il 20% più velocemente

27 aprile — GitHub Copilot cloud agent ora si avvia oltre il 20% più velocemente grazie ad ambienti runner preconfigurati tramite immagini custom GitHub Actions. Questo miglioramento si aggiunge alla riduzione del 50% già rilasciata a marzo 2026.

🔗 Changelog GitHub

Gemini — generazione di file scaricabili

29 aprile — Gemini può ora creare file scaricabili direttamente dalla chat: PDF, Word (.docx), Excel (.xlsx), Google Docs/Sheets/Slides, CSV, LaTeX, RTF e Markdown. Disponibile immediatamente per tutti gli utenti web e mobile.

🔗 Blog Google

Mistral Workflows in anteprima pubblica

27 aprile — Mistral AI lancia Workflows in anteprima pubblica, un livello di orchestrazione enterprise costruito sul motore di esecuzione durevole (durable execution engine) di Temporal (la stessa infrastruttura di Netflix, Stripe, Salesforce). I flussi si scrivono in Python tramite l’SDK Mistral v3.0, poi vengono attivati da Le Chat dai team business. Le organizzazioni ASML, France Travail e La Banque Postale lo utilizzano già.

🔗 Annuncio Mistral

Qwen FlashQLA — kernel di attenzione lineare

29 aprile — Qwen pubblica FlashQLA, una libreria di kernel (kernels) di attenzione lineare ad alte prestazioni costruita su TileLang, progettata per l’IA agentica su dispositivi personali: guadagni di 2–3× nel passaggio in avanti (forward) e 2× nel passaggio all’indietro (backward). Pubblicato open source su GitHub.

🔗 GitHub QwenLM/FlashQLA

GPT Image 2 integrato in Manus Slides

29 aprile — Manus integra GPT Image 2 in Manus Slides: modifica point-and-click delle immagini, sostituzione tramite prompt, generazione di note di presentazione, esportazione verso Google Slides, PowerPoint, PDF, Google Drive e OneDrive.

🔗 Annuncio Manus

Salesforce connesso a Genspark

29 aprile — Genspark integra Salesforce nel suo ecosistema di agenti: connessione tramite Genspark Claw (installazione CLI tramite istruzione) o Super Agent (connessione diretta). Casi d’uso: elaborazione automatica delle richieste clienti, dashboard trimestrali, gestione automatizzata della pipeline commerciale.

🔗 Annuncio Genspark

GPT-5.5 e ChatGPT Images 2.0 su Genspark

28 aprile — Genspark integra GPT-5.5 nella sua chat IA e ChatGPT Images 2.0 (GPT Image 2) nel suo generatore di immagini, accessibili rispettivamente su genspark.ai/agents e genspark.ai/ai_image.

🔗 Annuncio Genspark

Pika Agents — interfaccia conversazionale creativa

28 aprile — Pika lancia i Pika Agents: un’interfaccia di creazione video che sostituisce la casella di prompt con un agente IA personalizzato (voce, volto, personalità configurati dall’utente). L’agente comprende le intenzioni creative in linguaggio naturale e assembla, perfeziona e produce in un’unica conversazione.

🔗 Annuncio Pika

Codex seats a $0 per ChatGPT Business fino a fine giugno

29 aprile — OpenAI consente agli abbonati idonei a ChatGPT Business di aggiungere seat Codex senza costo per seat fino a fine giugno 2026, accompagnando l’espansione di Codex su AWS.

🔗 Annuncio @OpenAIDevs

Problema di Erdős vecchio di 60 anni risolto con GPT-5.5

28 aprile — OpenAI pubblica un episodio di podcast in cui Sébastien Bubeck e Ernest Ryu ripercorrono la risoluzione di un problema matematico aperto da 60 anni, attribuito a Paul Erdős, con l’aiuto di GPT-5.5. Il tweet supera le 399.000 visualizzazioni.

🔗 Tweet OpenAI


Brevi

  • DeepSeek-V4-Pro: promo -75% prorogata — La riduzione del 75% sull’API DeepSeek-V4-Pro è estesa fino al 31 maggio 2026. Tariffe promozionali: $0,003625/M token in input (cache hit), $0,435 (cache miss), $0,87 in output. 🔗 Tweet DeepSeek

  • Google DeepMind — Experience AI in America Latina — Il programma educativo Experience AI (Raspberry Pi Foundation) si estende in America Latina con l’obiettivo di formare 24.000 insegnanti e raggiungere 1,25 milioni di studenti entro il 2028, finanziato con $4,6 milioni da Google.org. 🔗 Tweet Google DeepMind

  • GPT-5.3-Codex rimosso dal selettore Copilot Student — A partire dal 27 aprile 2026, GPT-5.3-Codex non è più selezionabile manualmente nel piano Copilot Student; resta accessibile tramite selezione automatica. 🔗 Changelog GitHub

  • Responses API — domini bloccati per la ricerca web — La Responses API di OpenAI consente ora di bloccare domini specifici mantenendo attiva la ricerca web, per escludere fonti precise dai risultati. 🔗 Tweet @charlierguo

  • OpenAI — impegno per la sicurezza della comunità — OpenAI pubblica un articolo che dettaglia le sue pratiche di sicurezza in ChatGPT: mitigazione dei rischi nel modello, monitoraggio automatizzato, messa in contatto con risorse di aiuto e segnalazione alle autorità nei casi gravi. Pubblicazione di trasparenza senza nuova funzionalità. 🔗 Annuncio OpenAI


Cosa significa

La corsa ai modelli aperti si intensifica. Mistral Medium 3.5 (128B, SWE-Bench 77,6%) e NVIDIA Nemotron 3 Nano Omni (30B, 9× più efficiente degli altri omnimodali open) arrivano simultaneamente con licenze permissive. Entrambi i modelli si posizionano come alternative credibili alle frontiere chiuse: Mistral sul codice e il ragionamento, Nemotron sulla multimodalità agentica. Questa pressione mantiene un divario sempre meno ampio tra modelli proprietari e open weights.

L’infrastruttura hardware resta il collo di bottiglia strategico. I TPU di 8ª generazione di Google (3× in addestramento, 5× meno latenza in inferenza) illustrano che la corsa all’IA si gioca anche a livello del silicio. L’annuncio di Google Cloud Next ‘26 posiziona l’infrastruttura Google come un vantaggio competitivo duraturo rispetto alle GPU NVIDIA — anche se entrambe coesistono nei deployment reali.

L’ecosistema agentico si frammenta in specializzazioni verticali. Questa settimana, gli agenti IA si insediano negli strumenti creativi (Claude for Creative Work con 8+ connettori MCP), nello sviluppo software (Vibe Remote Agents, Copilot cloud agent 20% più veloce), nella musica (ElevenMusic), nel video (Pika Agents), nei CRM (Salesforce in Genspark) e nei workflow enterprise (Mistral Workflows). La domanda non è più «l’IA può farlo?» ma «in quale strumento specializzato e secondo quale modello di fatturazione?».

La fatturazione a consumo trasforma i modelli economici degli sviluppatori. Il passaggio di GitHub Copilot code review a un doppio conteggio (crediti IA + minuti Actions) a partire dal 1° giugno, combinato con l’offerta Codex seats a $0 per ChatGPT Business, illustra una dinamica: gli editori sovvenzionano l’adozione (gratuità temporanea, promo -75% DeepSeek) per creare abitudini prima di normalizzare la fatturazione a consumo. I team tecnici hanno interesse a verificare le proprie voci di spesa IA prima di giugno.


Fonti

Questo documento è stato tradotto dalla versione fr alla lingua it utilizzando il modello gpt-5.4. Per ulteriori informazioni sul processo di traduzione, consultare https://gitlab.com/jls42/ai-powered-markdown-translator