Il 25 aprile 2026 concentra annunci importanti sui modelli di frontiera e sugli strumenti per sviluppatori. DeepSeek-V4 viene lanciato come open-source ed è disponibile gratuitamente su NVIDIA Blackwell. GPT-5.5 entra in disponibilità generale in GitHub Copilot e nell’API OpenAI. La fusione Cohere + Aleph Alpha, sostenuta da 600 milioni di dollari di Schwarz Group, pone le basi dell’IA sovrana transatlantica. Sul fronte degli strumenti, Claude Code v2.1.119 e la modalità Auto-review di Codex estendono l’autonomia degli agenti di sviluppo.
DeepSeek-V4 disponibile ovunque
Lancio e open-source
24 aprile — DeepSeek annuncia simultaneamente DeepSeek-V4-Pro e DeepSeek-V4-Flash. V4-Pro è un modello mixture-of-experts da 1,6 trillion di parametri (49 miliardi attivi), con una finestra di contesto di un milione di token e prestazioni dichiarate paragonabili ai migliori modelli chiusi. V4-Flash, più compatto (284B/13B attivi), punta ai casi d’uso a bassa latenza. Entrambi i modelli sono open-source dal primo giorno, con API e demo disponibili immediatamente, e il rapporto tecnico pubblicato su Hugging Face.
Promozione API e integrazioni
25 aprile — DeepSeek annuncia una promozione del -75 % sull’API V4-Pro fino al 5 maggio 2026 (15:59 UTC). Le integrazioni Claude Code, OpenCode e OpenClaw sono state aggiornate per supportare il nuovo modello.
🔗 Promozione API DeepSeek-V4-Pro
DeepSeek-V4-Pro su NVIDIA Blackwell, gratuitamente
24 aprile — NVIDIA rende DeepSeek-V4-Pro accessibile gratuitamente tramite l’interfaccia NVIDIA NIM API su Blackwell, su build.nvidia.com. L’annuncio ha generato 160 000 visualizzazioni. NVIDIA pubblica anche le prime curve di prestazioni (Pareto frontier) di DeepSeek-V4-Pro su Blackwell Ultra con vLLM — un riferimento precoce per i deployment ad alte prestazioni.
25 aprile — NVIDIA sottolinea inoltre i limiti dell’inferenza classica per gli agenti di sviluppo: “Traditional inference wasn’t built for agentic coding”, in riferimento alle centinaia di chiamate API che generano gli strumenti agentici moderni.
🔗 DeepSeek-V4-Pro su NVIDIA NIM 🔗 Blackwell Ultra Day 0
GPT-5.5 esce dall’anteprima
Disponibilità generale in GitHub Copilot
24 aprile — GPT-5.5 viene distribuito gradualmente in GitHub Copilot per i piani Pro+, Business ed Enterprise. La disponibilità copre VS Code, Visual Studio, la CLI Copilot, l’agente cloud, github.com, l’app mobile (iOS e Android), gli IDE JetBrains, Xcode ed Eclipse. Il moltiplicatore promozionale è fissato a 7,5×. Gli amministratori Enterprise e Business devono attivare la policy nelle impostazioni per beneficiarne.
🔗 Changelog GitHub Copilot — GPT-5.5 GA
Accesso API per sviluppatori
24 aprile — Il giorno dopo il lancio al grande pubblico, OpenAI apre l’accesso a GPT-5.5 nell’API. Il modello è disponibile tramite l’API Responses e l’API Chat Completions, con una finestra di contesto di un milione di token. La variante GPT-5.5-Pro, per lavori ad alta precisione, è accessibile solo tramite l’API Responses.
“GPT-5.5 is available in the Responses and Chat Completions APIs with a 1M context window. GPT-5.5-pro is also available in the Responses API for higher-accuracy work.”
🇮🇹 “GPT-5.5 è disponibile nelle API Responses e Chat Completions con una finestra di contesto di un milione di token. GPT-5.5-Pro è anche disponibile nell’API Responses per i lavori ad alta precisione.” — @OpenAIDevs
GPT-5.5 su Perplexity Max e Personal Computer
24 aprile — GPT-5.5 è accessibile agli abbonati Max su Perplexity e distribuito come modello di orchestrazione predefinito in Personal Computer per i piani Pro e Max.
Bio Bug Bounty — programma di sicurezza per la biosicurezza
23 aprile — OpenAI apre un programma di bug bounty dedicato alla biosicurezza di GPT-5.5. Ricercatori specializzati in sicurezza IA o biosicurezza sono invitati a trovare un jailbreak universale che aggiri i guardrail biologici del modello. La ricompensa principale è di 25 000 USD per il primo successo. Le candidature sono aperte fino al 22 giugno 2026; i test si svolgeranno dal 28 aprile al 27 luglio 2026, esclusivamente su GPT-5.5 in Codex Desktop, su invito con accordo di riservatezza.
Strumenti per sviluppatori: autonomia in espansione
Claude Code v2.1.119
25 aprile — Anthropic pubblica Claude Code v2.1.119, un aggiornamento sostanziale del CLI con più di quaranta modifiche.
| Domaine | Changement |
|---|---|
| Config | /config persistente in ~/.claude/settings.json |
| PR | --from-pr supporta GitLab, Bitbucket, GitHub Enterprise |
| Hooks | PostToolUse + campo duration_ms |
| PowerShell | Auto-approvazione in modalità permesso |
| MCP | Connessione ai server subagent in parallelo |
| Bugs corretti | 40+ |
La persistenza delle impostazioni /config è il cambiamento più visibile: le preferenze di tema, modalità editor o livello verbose sopravvivono ai riavvii. Il parametro --from-pr accetta ora gli URL GitLab merge-request, Bitbucket pull-request e GitHub Enterprise, estendendo così il workflow ai team che non utilizzano GitHub.com. Gli hooks PostToolUse e PostToolUseFailure ricevono ora il campo duration_ms, utile per il monitoring in CI/CD. La connessione dei server MCP avviene ora in parallelo, riducendo i tempi di avvio dei workflow multi-server.
Codex Auto-review — autonomia prolungata con rete di sicurezza
24 aprile — OpenAI annuncia Auto-review, una nuova modalità di esecuzione per Codex. Questa modalità consente a Codex di progredire su attività lunghe senza chiedere approvazione a ogni passaggio. Un agente distinto valuta i passaggi ad alto rischio prima della loro esecuzione, il che consente di rendere più fluidi i workflow di test, compilazioni e automazioni lunghe senza sacrificare la sicurezza.
Copilot per JetBrains: Inline Agent Mode in anteprima
24 aprile — L’aggiornamento del plugin Copilot per gli IDE JetBrains porta diverse funzionalità: la modalità agent inline in anteprima pubblica (scorciatoia Shift+Ctrl+I o Shift+Cmd+I), i Next Edit Suggestions (NES) migliorati con anteprime in filigrana e modifiche remote, e l’auto-approvazione globale per le chiamate agli strumenti agent.
NVIDIA Dynamo — l’inferenza ripensata per gli agenti
25 aprile — NVIDIA presenta Dynamo, una riprogettazione dello stack di inferenza per rispondere ai profili di carico degli strumenti agentici. Gli agenti come Claude Code, Codex o Copilot concatenano centinaia di chiamate API per sessione con contesto ricomposto a ogni passaggio, creando colli di bottiglia che fanno salire il costo per token. Dynamo combina quattro componenti: routing sensibile alla cache KV, scheduling pensato per gli agenti, caching multilivello e orchestrazione unificata. NVIDIA annuncia fino a 7× di throughput aggiuntivo con tassi di cache più elevati e una latenza ridotta.
🔗 NVIDIA Dynamo — inferenza agentica
Sovranità e partnership enterprise
Cohere + Aleph Alpha: fusione transatlantica con 600 milioni USD di Schwarz Group
24 aprile — Cohere (Canada) e Aleph Alpha (Germania) annunciano il loro progetto di fusione. Schwarz Group — il gruppo proprietario di Lidl e Kaufland — investe 600 milioni USD (circa 500 milioni di euro) in finanziamento strutturato per la Series E di Cohere. La piattaforma combinata sarà ospitata su STACKIT, il cloud sovrano di Schwarz Digits.
“Sovereign AI for the world. Cohere & Aleph Alpha form transatlantic AI powerhouse anchored in Canada & Germany!”
🇮🇹 “L’IA sovrana per il mondo. Cohere e Aleph Alpha formano una potenza transatlantica dell’IA radicata in Canada e in Germania!” — @cohere su X
L’accordo punta ai settori regolamentati, ai governi e a un mercato dell’IA sovrana stimato in circa 600 miliardi USD. Rimane condizionato all’approvazione degli azionisti di Aleph Alpha.
Anthropic e NEC: primo partenariato globale giapponese
24 aprile — Anthropic annuncia una partnership strategica con NEC Corporation, che diventa il primo partner globale giapponese di Anthropic. NEC distribuirà Claude a circa 30 000 dipendenti del gruppo in tutto il mondo.
| Aspekt | Dettaglio |
|---|---|
| Dipendenti coinvolti | ~30 000 (NEC Group mondiale) |
| Prodotti distribuiti | Claude, Claude Opus 4.7, Claude Code, Claude Cowork |
| Settori target | Finanza, manufacturing, cybersicurezza, governo locale |
| Programma | NEC BluStellar Scenario |
Internamente, NEC istituisce un Centro di eccellenza per formare un team di ingegneria IA su larga scala, nell’ambito dell’iniziativa “Client Zero”. Per i suoi clienti, NEC e Anthropic svilupperanno congiuntamente soluzioni per i settori della finanza, del manufacturing e degli enti locali giapponesi.
Meta si associa ad AWS per l’IA agentica a miliardi di utenti
24 aprile — Meta annuncia un accordo con AWS per integrare decine di milioni di core Graviton5 nella sua infrastruttura. L’obiettivo è supportare i workload CPU-intensive dell’IA agentica destinata a miliardi di utenti.
Gemini: aggiornamenti prodotto e ricerca
Gemini Drops aprile 2026 — Lyria 3 Pro, Gemini Live v3.1
24 aprile — Google pubblica la 10ª edizione dei Gemini Drops. Lyria 3 Pro consente di creare brani musicali fino a 3 minuti direttamente in Gemini, accessibile agli abbonati Plus, Pro e Ultra. Gemini Live v3.1 è più veloce del 20 % e offre il doppio del contesto memorizzato. Personal Intelligence si estende a livello internazionale (esclusi Spazio economico europeo, Svizzera, Regno Unito, Corea del Sud, Australia e Nigeria). La funzionalità di conversazione a rami (branching) viene distribuita al 20 % degli utenti.
Gemini Embedding 2 in disponibilità generale
22 aprile — Gemini Embedding 2 passa in disponibilità generale (GA) nell’API Gemini e in Vertex AI. Il modello di rappresentazione vettoriale punta alla ricerca semantica, alla generazione aumentata dal recupero (RAG) e alla classificazione.
Decoupled DiLoCo — addestramento distribuito multiregione
23 aprile — Google DeepMind pubblica Decoupled DiLoCo, un metodo di addestramento distribuito su reti a bassa banda. Gemma 12B è stato addestrato su 4 regioni statunitensi con un mix di TPU6e e TPUv5p. Il metodo apre la strada a un addestramento decentralizzato dei modelli su scala globale, senza richiedere le interconnessioni ad alta velocità normalmente necessarie.
🔗 Decoupled DiLoCo — Google DeepMind
Modelli alternativi: Qwen e Grok
Qwen3.6-27B — modello denso flagship per il coding agentico
22 aprile — Alibaba pubblica Qwen3.6-27B, un modello denso da 27 miliardi di parametri open source sotto licenza Apache 2.0. Nonostante le dimensioni contenute, supera Qwen3.5-397B-A17B — un modello MoE da 397 miliardi di parametri di cui 17 miliardi attivati — sui principali benchmark di coding agentico, con un punteggio SWE-Bench Verified del 77,2 % contro il 76,2 % del predecessore. Tre assi sono messi in evidenza nell’annuncio: agentic coding che supera la generazione precedente su tutti i principali benchmark, ragionamento solido in testo e multimodale, e deployment denso senza la complessità MoE.
Il modello supporta le modalità thinking e non-thinking in un unico checkpoint. È disponibile su Hugging Face (Qwen/Qwen3.6-27B, variante FP8 inclusa) e ModelScope, con un blog tecnico e un Github dedicati. L’annuncio ha generato 3,5 milioni di visualizzazioni su X.
Qwen-Image-2.0-Pro — #9 mondiale Text-to-Image
25 aprile — Alibaba Qwen pubblica Qwen-Image-2.0-Pro, che raggiunge il 9° posto mondiale nella classifica Text-to-Image Arena e il 6° posto nei ritratti. Il modello è disponibile tramite l’API Alibaba Cloud e ModelScope.
Grok Voice Think Fast 1.0 — #1 Tau Voice Bench
23 aprile — xAI lancia il modello grok-voice-think-fast-1.0 tramite l’API xAI Console. Il modello rivendica il primo posto sul Tau Voice Bench, con ragionamento integrato senza latenza aggiuntiva. È già distribuito in produzione presso Starlink per il supporto clienti. L’architettura è unificata, distinta dalle API Grok STT/TTS annunciate ad aprile.
Grok Imagine — miglioramento del lip sync
25 aprile — Grok Imagine annuncia un miglioramento della sincronizzazione labiale (lip sync) e della qualità audio per tutte le generazioni image-to-video.
Generazione media e agenti vocali
Kling AI 4K — upscaling nativo da bassa risoluzione
24 aprile — Kling AI lancia Kling 4K, una funzionalità di ingrandimento immagini in 4K nativo da sorgenti a bassa risoluzione. L’annuncio riassunto in “Blurry in. 4K out.” ha generato 5,82 milioni di visualizzazioni. Questa funzionalità è distinta da Kling Video 3.0.
Runway integra GPT Image 2
24 aprile — Runway integra GPT Image 2 di OpenAI nella sua piattaforma di creazione video.
ElevenLabs × Customers Bank — agenti vocali bancari
24 aprile — ElevenLabs annuncia un deployment di ElevenAgents presso Customers Bank (25 miliardi USD di asset). Trois agenti sono distribuiti: assistenza clienti 24 ore su 24, onboarding dei nuovi clienti e coaching in tempo reale per i consulenti.
ElevenLabs — Programma Ambasciatore
23 aprile — ElevenLabs apre le candidature per il suo programma ambasciatore, che riunisce due livelli: Community Builders e Ambasciatori, con crediti, gadget e accesso anticipato alle nuove funzionalità. L’annuncio ha generato 116.000 visualizzazioni.
🔗 Programma Ambasciatore ElevenLabs
Ricerca Anthropic: sicurezza e agenti
Misure di protezione elettorale — risultati delle valutazioni
24 aprile — In vista delle midterm statunitensi del 2026, Anthropic pubblica un bilancio delle sue misure di protezione elettorale. Claude Opus 4.7 e Sonnet 4.6 ottengono rispettivamente il 95 % e il 96 % nelle valutazioni che misurano l’equilibrio delle risposte politiche.
| Modello | Conformità politica | Rifiuto operazioni di influenza | Ricerca web attivata |
|---|---|---|---|
| Opus 4.7 | 100 % | 94 % | 92 % |
| Sonnet 4.6 | 99,8 % | 90 % | 95 % |
Un banner TurboVote (risorsa apartitica di Democracy Works) verrà visualizzato su Claude.ai per orientare gli utenti verso informazioni affidabili sul voto per le midterm 2026.
🔗 Aggiornamento sulla protezione elettorale — Anthropic
Project Deal — agenti Claude come negoziatori
24 aprile — Anthropic pubblica i risultati di Project Deal, una sperimentazione interna sugli agenti IA in un mercato in stile Craigslist. Per una settimana, gli agenti Claude rappresentavano i dipendenti dell’ufficio di San Francisco per comprare e vendere oggetti tra colleghi. In totale, sono stati conclusi 186 deal con quattro configurazioni di modelli in parallelo.
| Metrica | Valore |
|---|---|
| Durata | 1 settimana |
| Configurazioni | 4 (tutto-Opus 4.7, tutto-Haiku, 2 mix) |
| Deal conclusi | 186 |
| Vantaggio Opus vs Haiku | +2 deal in media, prezzi superiori |
| Effetto istruzioni aggressive | Non significativo statisticamente |
“New Anthropic research: Project Deal. We created a marketplace for employees in our San Francisco office—like Craigslist—where Claude agents negotiated deals on their behalf.”
🇮🇹 “Nuova ricerca Anthropic: Project Deal. Abbiamo creato un marketplace per i dipendenti del nostro ufficio di San Francisco — come Craigslist — in cui degli agenti Claude negoziavano deal per loro conto.” — @AnthropicAI su X
La scoperta più notevole: le istruzioni aggressive (“negozia duramente”) non hanno avuto alcun effetto statisticamente significativo sui risultati — non a causa di un cattivo rispetto delle istruzioni, ma a causa dei vincoli propri del mercato.
Cosa significa
La giornata del 25 aprile illustra una rapida consolidazione attorno ad alcune tendenze di fondo. Sui modelli di frontiera, DeepSeek-V4 e GPT-5.5 stabiliscono un nuovo livello minimo per le capacità accessibili liberamente: un milione di token di contesto non è più un differenziatore premium. L’arrivo di DeepSeek-V4-Pro gratuitamente su NVIDIA Blackwell, unito alla promozione API del -75 %, segnala una competizione tariffaria diretta con i modelli chiusi.
Dal lato degli strumenti per sviluppatori, l’estensione dell’autonomia agentica si concretizza su più fronti simultaneamente — Claude Code v2.1.119, Codex Auto-review, Inline Agent Mode in JetBrains. Questi aggiornamenti convergono verso un unico obiettivo: ridurre le interruzioni umane nei pipeline lunghi, mantenendo al contempo punti di controllo per le operazioni a rischio. La questione del quadro legale per gli agenti che agiscono in nostro nome, sollevata da Project Deal, assume una risonanza particolare in questo contesto.
La fusione Cohere + Aleph Alpha con 600 milioni di USD di Schwarz Group è il segnale più strutturante per l’IA sovrana europea. Crea un attore transatlantico posizionato su governi e settori regolamentati, con un’infrastruttura cloud dedicata (STACKIT), in un mercato stimato a 600 miliardi di USD. La partnership Anthropic + NEC in parallelo mostra che la stessa logica di sovranità si estende all’Asia.
Fonti
- CHANGELOG Claude Code v2.1.119
- Anthropic e NEC
- Protezione elettorale — Anthropic
- Project Deal — Anthropic
- GPT-5.5 API OpenAI
- Codex Auto-review
- GPT-5.5 Bio Bug Bounty
- Gemini Drops aprile 2026
- Gemini Embedding 2 GA
- Decoupled DiLoCo — Google DeepMind
- DeepSeek-V4 lancio
- Promozione API DeepSeek-V4-Pro
- Meta × AWS Graviton5
- Qwen-Image-2.0-Pro
- Grok Voice Think Fast 1.0
- Grok Imagine lip sync
- Qwen3.6-27B
- GPT-5.5 GA GitHub Copilot
- Copilot JetBrains Inline Agent Mode
- GPT-5.5 su Perplexity Max
- Cohere × Aleph Alpha
- DeepSeek-V4-Pro su NVIDIA NIM
- NVIDIA Blackwell Ultra Day 0
- NVIDIA Dynamo — inferenza agentica
- Runway × GPT Image 2
- Kling AI 4K
- ElevenLabs × Customers Bank
- ElevenLabs Programma Ambasciatore
Questo documento è stato tradotto dalla versione fr alla lingua it utilizzando il modello gpt-5.4-mini. Per ulteriori informazioni sul processo di traduzione, consulta https://gitlab.com/jls42/ai-powered-markdown-translator