Il 21 aprile 2026, tre annunci importanti dominano l’attualità IA: OpenAI lancia ChatGPT Images 2.0 con il suo primo modello image capace di ragionare, Google DeepMind presenta due agenti di ricerca autonomi alimentati da Gemini 3.1 Pro, e NVIDIA consolida una partnership tripartita con Adobe e WPP attorno ad agenti creativi per il marketing enterprise. Claude Code, Codex e Git 2.54 completano una giornata ricca di aggiornamenti sugli strumenti.
ChatGPT Images 2.0 e gpt-image-2
21 aprile — OpenAI lancia ChatGPT Images 2.0, disponibile immediatamente per tutti gli utenti di ChatGPT e di Codex. Il modello sottostante, gpt-image-2, è contemporaneamente disponibile tramite l’API.
Questa nuova versione segna una svolta rispetto alla generazione precedente: il follow-up di istruzioni dettagliate (instruction following) è significativamente migliorato, il posizionamento e l’associazione precisa degli oggetti sono più affidabili, il rendering di testo denso è stato rivisto e diversi formati (ritratto, paesaggio, quadrato) sono supportati nativamente.
La modalità riflessione (thinking) è la principale novità. ChatGPT Images 2.0 è il primo modello image di OpenAI dotato di capacità di ragionamento. In modalità thinking, disponibile per gli abbonati Plus, Pro e Business (Enterprise presto), il modello può:
- Cercare il web in tempo reale per informazioni aggiornate
- Generare più immagini distinte da un unico prompt
- Auto-verificare e correggere le proprie uscite
I team di ricerca di OpenAI hanno dettagliato i casi d’uso in un thread: rendering multilingue e testo preciso, diapositive e infografiche professionali, formati e risoluzioni multipli, follow-up di istruzioni complesse.
| Funzionalità | Disponibilità |
|---|---|
| ChatGPT Images 2.0 (standard) | Tutti gli utenti ChatGPT e Codex |
| Modalità thinking | ChatGPT Plus, Pro, Business (Enterprise presto) |
| API gpt-image-2 | Disponibile da subito |
La linea guida di OpenAI per questo lancio: il modello “passa dalla generazione di immagini al design strategico, da uno strumento a un sistema visivo.”
🔗 Presentazione di ChatGPT Images 2.0 🔗 Tweet @OpenAI
Google Deep Research e Deep Research Max
21 aprile — Google DeepMind lancia due agenti di ricerca autonomi alimentati da Gemini 3.1 Pro: Deep Research e Deep Research Max.
Questi agenti navigano sia sul web aperto sia su dati personalizzati — documenti interni, informazioni finanziarie specializzate — per produrre report professionali interamente citati.
Deep Research è ottimizzato per la velocità e la bassa latenza, ideale per le interfacce che richiedono risposte rapide. Deep Research Max sfrutta un tempo di calcolo esteso (extended test-time compute) per ragionare in modo iterativo, affinare le ricerche e produrre un report di alta qualità — progettato per l’elaborazione asincrona in background.
| Funzionalità | Dettaglio |
|---|---|
| Supporto MCP | Connessione sicura a fonti proprietarie o di terze parti |
| Generazione nativa di visual | Primo agente a generare grafici e infografiche (HTML o Nano Banana 2) |
| Pianificazione collaborativa | L’utente può affinare il piano di ricerca prima dell’esecuzione |
| Multimodalità | PDF, CSV, immagini, audio, video accettati in input |
| Disponibilità | API Gemini, partner a pagamento, anteprima pubblica |
La generazione nativa di visual è notevole: Deep Research Max può produrre grafici e infografiche direttamente nei suoi report, in HTML o tramite Nano Banana 2, senza strumenti esterni. Le startup e le aziende Google Cloud beneficeranno di una disponibilità annunciata a breve.
🔗 Annuncio @GoogleDeepMind 🔗 Articolo blog.google
NVIDIA × Adobe × WPP — Agenti creativi per il marketing enterprise
20 aprile — NVIDIA amplia le sue collaborazioni strategiche con Adobe e WPP per distribuire agenti IA autonomi nelle operazioni di marketing enterprise. L’annuncio è accompagnato da una dimostrazione live all’Adobe Summit il 21 aprile, con Jensen Huang (CEO NVIDIA) e Shantanu Narayen (CEO Adobe).
La nuova soluzione Adobe CX Enterprise Coworker è orchestrata da agenti IA basati su:
- NVIDIA OpenShell: ambiente di esecuzione sicuro, osservabile e verificabile per workflow agentici
- NVIDIA Agent Toolkit e modelli Nemotron open-source
- Adobe Firefly Foundry accelerato da infrastruttura NVIDIA AI
In concreto, un retailer globale può ora generare milioni di combinazioni prodotto/pubblico/canale in pochi minuti invece che in mesi. I gemelli digitali 3D (Omniverse + OpenUSD) servono da identità prodotto persistenti per automatizzare la produzione di contenuti ad alta fedeltà su larga scala.
🔗 Articolo blogs.nvidia.com 🔗 Tweet @NVIDIAAI
Claude Code v2.1.116
19–21 aprile — Claude Code v2.1.116 apporta una serie di miglioramenti mirati alle prestazioni, all’affidabilità e all’esperienza terminale.
L’aggiornamento più tangibile: il comando /resume è fino al 67 % più veloce sulle grandi sessioni (40 Mo+), con una migliore gestione degli input “dead-fork”. Anche l’avvio MCP è più rapido con più server stdio configurati.
Esperienza utente:
- L’indicatore di riflessione mostra ora l’avanzamento inline (“still thinking”, “thinking more”, “almost done thinking”), sostituendo la riga di indice separata
/configpuò cercare per valore di opzione (es.: cercare “vim” trova il parametro Editor mode)/doctorpuò essere aperto mentre Claude risponde, senza aspettare la fine del turno
Sicurezza: il sandbox auto-allow non aggira più la verifica dei percorsi pericolosi per rm/rmdir che puntano a /, $HOME o ad altre directory di sistema critiche.
8 correzioni terminali includono: protocollo tastiera Kitty (Ctrl+-, Cmd+Sinistra/Destra), rendering degli script Devanagari, blocco Ctrl+Z tramite processo wrapper, duplicazione dello scrollback in modalità inline e diverse correzioni per VS Code/Warp/Ghostty.
| Categoria | Modifica chiave |
|---|---|
| Prestazioni | /resume 67 % più veloce sulle sessioni 40 Mo+ |
| UX | Thinking spinner progressivo, /config per valore |
| Sicurezza | Sandbox rispetta la protezione dei percorsi critici |
| Terminali | 8 correzioni (Kitty, VS Code, Warp, Ghostty, WezTerm) |
| Plugin | Auto-install delle dipendenze mancanti |
Live Artifacts in Claude Cowork
20 aprile — Anthropic lancia i “Live Artifacts” in Claude Cowork: dashboard e tracker dinamici direttamente collegati alle applicazioni e ai file dell’utente.
A differenza degli artefatti classici (statici), i Live Artifacts si aggiornano automaticamente all’apertura con i dati correnti. Sono salvati in una nuova scheda dedicata con storico delle versioni, accessibile da qualsiasi sessione.
“In Cowork, Claude can now build live artifacts: dashboards and trackers connected to your apps and files. Open one any time and it refreshes with current data.”
🇮🇹 “In Cowork, Claude può ora creare artefatti dinamici: dashboard e tracker collegati alle tue applicazioni e ai tuoi file. Aprine uno in qualsiasi momento e si aggiorna con i dati attuali.” — @claudeai su X
La funzionalità è disponibile su tutti i piani a pagamento tramite un aggiornamento dell’app Claude.
Codex in enterprise: Codex Labs e 7 partner integratori
21 aprile — OpenAI compie un nuovo passo nel deployment enterprise di Codex: 4 milioni di sviluppatori lo usano ogni settimana (contro 3 milioni all’inizio di aprile, cioè +33 % in due settimane), e lancia contemporaneamente Codex Labs insieme a un programma di partnership con 7 integratori globali.
Codex Labs porta gli esperti OpenAI direttamente nelle organizzazioni per workshop pratici e sessioni di lavoro, con l’obiettivo di aiutare i team a passare da un uso sperimentale a un deployment riproducibile.
I 7 partner integratori (GSI): Accenture, Capgemini, CGI, Cognizant, Infosys, PwC e Tata Consultancy Services.
| Azienda | Uso di Codex |
|---|---|
| Virgin Atlantic | Copertura dei test, riduzione del debito tecnico |
| Ramp | Accelerazione delle code review |
| Notion | Sviluppo rapido di nuove funzionalità |
| Cisco | Comprensione di grandi repository interconnessi |
| Rakuten | Incident response |
Codex si estende ora oltre lo sviluppo software: navigazione nel browser, generazione di immagini, memoria, orchestrazione di attività trasversali.
🔗 Scaling Codex to enterprises worldwide
Nano Banana Pro in Google AI Studio
20 aprile — Gli abbonati Google AI Pro e Ultra beneficiano ora di un accesso esteso a Google AI Studio senza chiave API richiesta: accesso a Nano Banana Pro e ai modelli Gemini Pro con limiti d’uso aumentati.
Basta accedere con il proprio account abbonato per passare dal prototipo alla produzione. Questa evoluzione posiziona l’abbonamento Google AI come un ponte pratico per gli sviluppatori che desiderano sperimentare senza la complessità della fatturazione a richiesta.
🔗 Annuncio @GoogleAI 🔗 Articolo blog.google
Kimi FlashKDA open-source
21 aprile — Moonshot AI pubblica open-source FlashKDA, la loro implementazione CUTLASS ad alte prestazioni dei kernel Kimi Delta Attention (KDA).
| Metrica | Valore |
|---|---|
| Speedup prefill vs baseline | 1,72× a 2,22× su H20 |
| Integrazione | Backend drop-in per flash-linear-attention |
| Requisiti | SM90+, CUDA 12.9+, PyTorch 2.4+ |
FlashKDA funziona come backend intercambiabile (drop-in) per flash-linear-attention. L’integrazione è disponibile tramite la PR fla-org/flash-linear-attention#852.
🔗 Repo GitHub FlashKDA 🔗 Tweet @Kimi_Moonshot
Git 2.54
20 aprile — Git 2.54 è disponibile con tre evoluzioni strutturali.
git history (sperimentale) — Nuova sotto-commanda per riscrivere la cronologia senza passare da git rebase -i :
git history reword <commit>: modificare il messaggio di un commit e riscrivere i branch in-placegit history split <commit>: dividere un commit in due in modo interattivo
Config-based hooks — Gli hook possono ora essere definiti nei file di configurazione Git, non solo in .git/hooks. Ciò consente la condivisione tra più repository tramite ~/.gitconfig, più hook per lo stesso evento e la disattivazione individuale tramite hook.<name>.enabled = false.
Geometric repacking predefinito — git maintenance usa ora la strategia geometrica per impostazione predefinita, migliorando le prestazioni senza configurazione aggiuntiva.
🔗 Highlights from Git 2.54 🔗 Tweet @github
Genspark Build in anteprima pubblica
21 aprile — Genspark lancia Genspark Build in anteprima pubblica (public preview): uno strumento per creare app e siti web alimentato da Claude Opus 4.7, che copre l’intero processo dall’idea al mockup design, al prototipo e al codice funzionante.
Gli utenti Plus e Pro beneficiano di 3 giorni di accesso senza crediti dal 21 al 24 aprile (9h PT). Genspark specifica di lanciare “rough edges and all” — lo strumento è in costruzione attiva.
Lo stesso giorno, Genspark integra anche Lyria 3 Music nel suo AI Music Agent e Gemini 3.1 Flash TTS nel suo AI Audio Agent.
🔗 Tweet Genspark Build 🔗 Tweet Lyria 3 + TTS
Cohere — Ricerca sul decoding speculativo per modelli MoE
21 aprile — Cohere pubblica un articolo di ricerca tecnica sull’ottimizzazione dei modelli a miscela di esperti (Mixture-of-Experts, MoE) con il decoding speculativo (speculative decoding).
Il team valida sui suoi modelli MoE in produzione — incluso Command A (111 miliardi di parametri) — una curva di guadagno non monotona in base alla dimensione del batch: i guadagni aumentano inizialmente per poi diminuire. Vengono identificati due meccanismi chiave: la correlazione temporale nel routing degli esperti riduce del 20 al 31 % il numero di esperti unici da caricare in memoria, e un ammortamento dei costi fissi spiega i guadagni elevati a BS=1.
Genspark Claw: Kimi K2.6 già al day one
21 aprile — Genspark integra Kimi K2.6 nel suo strumento Claw già il giorno del lancio (Day 0), tramite una partnership con Fireworks AI che ha accompagnato le fasi di pre-lancio e di test.
Anthropic STEM Fellows Program
21 aprile — Anthropic lancia il programma STEM Fellows, rivolto a esperti in scienze e ingegneria per lavorare a fianco dei team di ricerca su progetti di pochi mesi, con base a San Francisco.
Cosa significa
Il 21 aprile segna una convergenza tra ragionamento e generazione multimodale. gpt-image-2 illustra una tendenza chiara: i modelli generativi integrano il ragionamento come livello di orchestrazione, non solo come miglioramento della qualità. Il risultato è un modello capace di cercare, generare, verificare e correggere nella stessa sessione.
Deep Research Max spinge la stessa logica sul versante della ricerca: con il supporto MCP, l’agente può accedere a dati proprietari strutturati, aprendo la strada a workflow analitici autonomi senza esportare dati sensibili verso servizi terzi.
La partnership NVIDIA × Adobe × WPP segnala che l’adozione enterprise dell’IA creativa esce dalla fase pilota. OpenShell come runtime verificabile risponde a un vincolo reale delle grandi organizzazioni: gli agenti autonomi devono poter essere osservati e tracciati, non solo performanti.
Sul fronte degli strumenti, i config-based hooks di Git 2.54 sono un’evoluzione architetturale discreta ma importante: gli hook condivisi tra repository tramite ~/.gitconfig cambieranno le pratiche di team per la standardizzazione dei workflow CI locali.
Fonti - Introduzione a ChatGPT Images 2.0
- Tweet @OpenAI — Images 2.0
- Scaling Codex per le imprese in tutto il mondo
- Gemini Deep Research — blog.google
- Tweet @GoogleDeepMind — Deep Research
- Nano Banana Pro in AI Studio — blog.google
- Tweet @GoogleAI — AI Studio
- NVIDIA × Adobe × WPP — blogs.nvidia.com
- Tweet @NVIDIAAI — Adobe Summit
- CHANGELOG Claude Code v2.1.116
- Annuncio Live Artifacts @claudeai
- Highlights from Git 2.54
- Tweet @github — Git 2.54
- Tweet Genspark Build
- Tweet Genspark Lyria 3 + TTS
- FlashKDA GitHub
- Tweet @Kimi_Moonshot — FlashKDA
- Cohere — decodifica speculativa MoE
- Annuncio STEM Fellows @AnthropicAI
Questo documento è stato tradotto dalla versione fr alla lingua it utilizzando il modello gpt-5.4-mini. Per ulteriori informazioni sul processo di traduzione, consulta https://gitlab.com/jls42/ai-powered-markdown-translator