Cerca

DeepSeek-V4 e GPT-5.5 invadono gli IDE, Cohere si fonde con Aleph Alpha, Claude Code v2.1.119

DeepSeek-V4 e GPT-5.5 invadono gli IDE, Cohere si fonde con Aleph Alpha, Claude Code v2.1.119

Il 25 aprile 2026 concentra annunci importanti sui modelli di frontiera e sugli strumenti per sviluppatori. DeepSeek-V4 viene lanciato come open-source ed è disponibile gratuitamente su NVIDIA Blackwell. GPT-5.5 entra in disponibilità generale in GitHub Copilot e nell’API OpenAI. La fusione Cohere + Aleph Alpha, sostenuta da 600 milioni di dollari di Schwarz Group, pone le basi dell’IA sovrana transatlantica. Sul fronte degli strumenti, Claude Code v2.1.119 e la modalità Auto-review di Codex estendono l’autonomia degli agenti di sviluppo.


DeepSeek-V4 disponibile ovunque

Lancio e open-source

24 aprile — DeepSeek annuncia simultaneamente DeepSeek-V4-Pro e DeepSeek-V4-Flash. V4-Pro è un modello mixture-of-experts da 1,6 trillion di parametri (49 miliardi attivi), con una finestra di contesto di un milione di token e prestazioni dichiarate paragonabili ai migliori modelli chiusi. V4-Flash, più compatto (284B/13B attivi), punta ai casi d’uso a bassa latenza. Entrambi i modelli sono open-source dal primo giorno, con API e demo disponibili immediatamente, e il rapporto tecnico pubblicato su Hugging Face.

🔗 Annuncio DeepSeek-V4

Promozione API e integrazioni

25 aprile — DeepSeek annuncia una promozione del -75 % sull’API V4-Pro fino al 5 maggio 2026 (15:59 UTC). Le integrazioni Claude Code, OpenCode e OpenClaw sono state aggiornate per supportare il nuovo modello.

🔗 Promozione API DeepSeek-V4-Pro

DeepSeek-V4-Pro su NVIDIA Blackwell, gratuitamente

24 aprile — NVIDIA rende DeepSeek-V4-Pro accessibile gratuitamente tramite l’interfaccia NVIDIA NIM API su Blackwell, su build.nvidia.com. L’annuncio ha generato 160 000 visualizzazioni. NVIDIA pubblica anche le prime curve di prestazioni (Pareto frontier) di DeepSeek-V4-Pro su Blackwell Ultra con vLLM — un riferimento precoce per i deployment ad alte prestazioni.

25 aprile — NVIDIA sottolinea inoltre i limiti dell’inferenza classica per gli agenti di sviluppo: “Traditional inference wasn’t built for agentic coding”, in riferimento alle centinaia di chiamate API che generano gli strumenti agentici moderni.

🔗 DeepSeek-V4-Pro su NVIDIA NIM 🔗 Blackwell Ultra Day 0


GPT-5.5 esce dall’anteprima

Disponibilità generale in GitHub Copilot

24 aprile — GPT-5.5 viene distribuito gradualmente in GitHub Copilot per i piani Pro+, Business ed Enterprise. La disponibilità copre VS Code, Visual Studio, la CLI Copilot, l’agente cloud, github.com, l’app mobile (iOS e Android), gli IDE JetBrains, Xcode ed Eclipse. Il moltiplicatore promozionale è fissato a 7,5×. Gli amministratori Enterprise e Business devono attivare la policy nelle impostazioni per beneficiarne.

🔗 Changelog GitHub Copilot — GPT-5.5 GA

Accesso API per sviluppatori

24 aprile — Il giorno dopo il lancio al grande pubblico, OpenAI apre l’accesso a GPT-5.5 nell’API. Il modello è disponibile tramite l’API Responses e l’API Chat Completions, con una finestra di contesto di un milione di token. La variante GPT-5.5-Pro, per lavori ad alta precisione, è accessibile solo tramite l’API Responses.

“GPT-5.5 is available in the Responses and Chat Completions APIs with a 1M context window. GPT-5.5-pro is also available in the Responses API for higher-accuracy work.”

🇮🇹 “GPT-5.5 è disponibile nelle API Responses e Chat Completions con una finestra di contesto di un milione di token. GPT-5.5-Pro è anche disponibile nell’API Responses per i lavori ad alta precisione.”@OpenAIDevs

🔗 Annuncio OpenAI API

GPT-5.5 su Perplexity Max e Personal Computer

24 aprile — GPT-5.5 è accessibile agli abbonati Max su Perplexity e distribuito come modello di orchestrazione predefinito in Personal Computer per i piani Pro e Max.

🔗 Annuncio Perplexity

Bio Bug Bounty — programma di sicurezza per la biosicurezza

23 aprile — OpenAI apre un programma di bug bounty dedicato alla biosicurezza di GPT-5.5. Ricercatori specializzati in sicurezza IA o biosicurezza sono invitati a trovare un jailbreak universale che aggiri i guardrail biologici del modello. La ricompensa principale è di 25 000 USD per il primo successo. Le candidature sono aperte fino al 22 giugno 2026; i test si svolgeranno dal 28 aprile al 27 luglio 2026, esclusivamente su GPT-5.5 in Codex Desktop, su invito con accordo di riservatezza.

🔗 GPT-5.5 Bio Bug Bounty


Strumenti per sviluppatori: autonomia in espansione

Claude Code v2.1.119

25 aprile — Anthropic pubblica Claude Code v2.1.119, un aggiornamento sostanziale del CLI con più di quaranta modifiche.

DomaineChangement
Config/config persistente in ~/.claude/settings.json
PR--from-pr supporta GitLab, Bitbucket, GitHub Enterprise
HooksPostToolUse + campo duration_ms
PowerShellAuto-approvazione in modalità permesso
MCPConnessione ai server subagent in parallelo
Bugs corretti40+

La persistenza delle impostazioni /config è il cambiamento più visibile: le preferenze di tema, modalità editor o livello verbose sopravvivono ai riavvii. Il parametro --from-pr accetta ora gli URL GitLab merge-request, Bitbucket pull-request e GitHub Enterprise, estendendo così il workflow ai team che non utilizzano GitHub.com. Gli hooks PostToolUse e PostToolUseFailure ricevono ora il campo duration_ms, utile per il monitoring in CI/CD. La connessione dei server MCP avviene ora in parallelo, riducendo i tempi di avvio dei workflow multi-server.

🔗 CHANGELOG Claude Code

Codex Auto-review — autonomia prolungata con rete di sicurezza

24 aprile — OpenAI annuncia Auto-review, una nuova modalità di esecuzione per Codex. Questa modalità consente a Codex di progredire su attività lunghe senza chiedere approvazione a ogni passaggio. Un agente distinto valuta i passaggi ad alto rischio prima della loro esecuzione, il che consente di rendere più fluidi i workflow di test, compilazioni e automazioni lunghe senza sacrificare la sicurezza.

🔗 Codex Auto-review

Copilot per JetBrains: Inline Agent Mode in anteprima

24 aprile — L’aggiornamento del plugin Copilot per gli IDE JetBrains porta diverse funzionalità: la modalità agent inline in anteprima pubblica (scorciatoia Shift+Ctrl+I o Shift+Cmd+I), i Next Edit Suggestions (NES) migliorati con anteprime in filigrana e modifiche remote, e l’auto-approvazione globale per le chiamate agli strumenti agent.

🔗 Changelog JetBrains Copilot

NVIDIA Dynamo — l’inferenza ripensata per gli agenti

25 aprile — NVIDIA presenta Dynamo, una riprogettazione dello stack di inferenza per rispondere ai profili di carico degli strumenti agentici. Gli agenti come Claude Code, Codex o Copilot concatenano centinaia di chiamate API per sessione con contesto ricomposto a ogni passaggio, creando colli di bottiglia che fanno salire il costo per token. Dynamo combina quattro componenti: routing sensibile alla cache KV, scheduling pensato per gli agenti, caching multilivello e orchestrazione unificata. NVIDIA annuncia fino a 7× di throughput aggiuntivo con tassi di cache più elevati e una latenza ridotta.

🔗 NVIDIA Dynamo — inferenza agentica


Sovranità e partnership enterprise

Cohere + Aleph Alpha: fusione transatlantica con 600 milioni USD di Schwarz Group

24 aprile — Cohere (Canada) e Aleph Alpha (Germania) annunciano il loro progetto di fusione. Schwarz Group — il gruppo proprietario di Lidl e Kaufland — investe 600 milioni USD (circa 500 milioni di euro) in finanziamento strutturato per la Series E di Cohere. La piattaforma combinata sarà ospitata su STACKIT, il cloud sovrano di Schwarz Digits.

“Sovereign AI for the world. Cohere & Aleph Alpha form transatlantic AI powerhouse anchored in Canada & Germany!”

🇮🇹 “L’IA sovrana per il mondo. Cohere e Aleph Alpha formano una potenza transatlantica dell’IA radicata in Canada e in Germania!”@cohere su X

L’accordo punta ai settori regolamentati, ai governi e a un mercato dell’IA sovrana stimato in circa 600 miliardi USD. Rimane condizionato all’approvazione degli azionisti di Aleph Alpha.

Anthropic e NEC: primo partenariato globale giapponese

24 aprile — Anthropic annuncia una partnership strategica con NEC Corporation, che diventa il primo partner globale giapponese di Anthropic. NEC distribuirà Claude a circa 30 000 dipendenti del gruppo in tutto il mondo.

AspektDettaglio
Dipendenti coinvolti~30 000 (NEC Group mondiale)
Prodotti distribuitiClaude, Claude Opus 4.7, Claude Code, Claude Cowork
Settori targetFinanza, manufacturing, cybersicurezza, governo locale
ProgrammaNEC BluStellar Scenario

Internamente, NEC istituisce un Centro di eccellenza per formare un team di ingegneria IA su larga scala, nell’ambito dell’iniziativa “Client Zero”. Per i suoi clienti, NEC e Anthropic svilupperanno congiuntamente soluzioni per i settori della finanza, del manufacturing e degli enti locali giapponesi.

🔗 Anthropic e NEC

Meta si associa ad AWS per l’IA agentica a miliardi di utenti

24 aprile — Meta annuncia un accordo con AWS per integrare decine di milioni di core Graviton5 nella sua infrastruttura. L’obiettivo è supportare i workload CPU-intensive dell’IA agentica destinata a miliardi di utenti.

🔗 Meta × AWS Graviton5


Gemini: aggiornamenti prodotto e ricerca

Gemini Drops aprile 2026 — Lyria 3 Pro, Gemini Live v3.1

24 aprile — Google pubblica la 10ª edizione dei Gemini Drops. Lyria 3 Pro consente di creare brani musicali fino a 3 minuti direttamente in Gemini, accessibile agli abbonati Plus, Pro e Ultra. Gemini Live v3.1 è più veloce del 20 % e offre il doppio del contesto memorizzato. Personal Intelligence si estende a livello internazionale (esclusi Spazio economico europeo, Svizzera, Regno Unito, Corea del Sud, Australia e Nigeria). La funzionalità di conversazione a rami (branching) viene distribuita al 20 % degli utenti.

🔗 Gemini Drops aprile 2026

Gemini Embedding 2 in disponibilità generale

22 aprile — Gemini Embedding 2 passa in disponibilità generale (GA) nell’API Gemini e in Vertex AI. Il modello di rappresentazione vettoriale punta alla ricerca semantica, alla generazione aumentata dal recupero (RAG) e alla classificazione.

🔗 Gemini Embedding 2 GA

Decoupled DiLoCo — addestramento distribuito multiregione

23 aprile — Google DeepMind pubblica Decoupled DiLoCo, un metodo di addestramento distribuito su reti a bassa banda. Gemma 12B è stato addestrato su 4 regioni statunitensi con un mix di TPU6e e TPUv5p. Il metodo apre la strada a un addestramento decentralizzato dei modelli su scala globale, senza richiedere le interconnessioni ad alta velocità normalmente necessarie.

🔗 Decoupled DiLoCo — Google DeepMind


Modelli alternativi: Qwen e Grok

Qwen3.6-27B — modello denso flagship per il coding agentico

22 aprile — Alibaba pubblica Qwen3.6-27B, un modello denso da 27 miliardi di parametri open source sotto licenza Apache 2.0. Nonostante le dimensioni contenute, supera Qwen3.5-397B-A17B — un modello MoE da 397 miliardi di parametri di cui 17 miliardi attivati — sui principali benchmark di coding agentico, con un punteggio SWE-Bench Verified del 77,2 % contro il 76,2 % del predecessore. Tre assi sono messi in evidenza nell’annuncio: agentic coding che supera la generazione precedente su tutti i principali benchmark, ragionamento solido in testo e multimodale, e deployment denso senza la complessità MoE.

Il modello supporta le modalità thinking e non-thinking in un unico checkpoint. È disponibile su Hugging Face (Qwen/Qwen3.6-27B, variante FP8 inclusa) e ModelScope, con un blog tecnico e un Github dedicati. L’annuncio ha generato 3,5 milioni di visualizzazioni su X.

🔗 Annuncio Qwen3.6-27B

Qwen-Image-2.0-Pro — #9 mondiale Text-to-Image

25 aprile — Alibaba Qwen pubblica Qwen-Image-2.0-Pro, che raggiunge il 9° posto mondiale nella classifica Text-to-Image Arena e il 6° posto nei ritratti. Il modello è disponibile tramite l’API Alibaba Cloud e ModelScope.

🔗 Qwen-Image-2.0-Pro

Grok Voice Think Fast 1.0 — #1 Tau Voice Bench

23 aprile — xAI lancia il modello grok-voice-think-fast-1.0 tramite l’API xAI Console. Il modello rivendica il primo posto sul Tau Voice Bench, con ragionamento integrato senza latenza aggiuntiva. È già distribuito in produzione presso Starlink per il supporto clienti. L’architettura è unificata, distinta dalle API Grok STT/TTS annunciate ad aprile.

🔗 Grok Voice Think Fast 1.0

Grok Imagine — miglioramento del lip sync

25 aprile — Grok Imagine annuncia un miglioramento della sincronizzazione labiale (lip sync) e della qualità audio per tutte le generazioni image-to-video.

🔗 Grok Imagine lip sync


Generazione media e agenti vocali

Kling AI 4K — upscaling nativo da bassa risoluzione

24 aprile — Kling AI lancia Kling 4K, una funzionalità di ingrandimento immagini in 4K nativo da sorgenti a bassa risoluzione. L’annuncio riassunto in “Blurry in. 4K out.” ha generato 5,82 milioni di visualizzazioni. Questa funzionalità è distinta da Kling Video 3.0.

🔗 Kling AI 4K

Runway integra GPT Image 2

24 aprile — Runway integra GPT Image 2 di OpenAI nella sua piattaforma di creazione video.

🔗 Runway × GPT Image 2

ElevenLabs × Customers Bank — agenti vocali bancari

24 aprile — ElevenLabs annuncia un deployment di ElevenAgents presso Customers Bank (25 miliardi USD di asset). Trois agenti sono distribuiti: assistenza clienti 24 ore su 24, onboarding dei nuovi clienti e coaching in tempo reale per i consulenti.

🔗 ElevenLabs × Customers Bank

ElevenLabs — Programma Ambasciatore

23 aprile — ElevenLabs apre le candidature per il suo programma ambasciatore, che riunisce due livelli: Community Builders e Ambasciatori, con crediti, gadget e accesso anticipato alle nuove funzionalità. L’annuncio ha generato 116.000 visualizzazioni.

🔗 Programma Ambasciatore ElevenLabs


Ricerca Anthropic: sicurezza e agenti

Misure di protezione elettorale — risultati delle valutazioni

24 aprile — In vista delle midterm statunitensi del 2026, Anthropic pubblica un bilancio delle sue misure di protezione elettorale. Claude Opus 4.7 e Sonnet 4.6 ottengono rispettivamente il 95 % e il 96 % nelle valutazioni che misurano l’equilibrio delle risposte politiche.

ModelloConformità politicaRifiuto operazioni di influenzaRicerca web attivata
Opus 4.7100 %94 %92 %
Sonnet 4.699,8 %90 %95 %

Un banner TurboVote (risorsa apartitica di Democracy Works) verrà visualizzato su Claude.ai per orientare gli utenti verso informazioni affidabili sul voto per le midterm 2026.

🔗 Aggiornamento sulla protezione elettorale — Anthropic

Project Deal — agenti Claude come negoziatori

24 aprile — Anthropic pubblica i risultati di Project Deal, una sperimentazione interna sugli agenti IA in un mercato in stile Craigslist. Per una settimana, gli agenti Claude rappresentavano i dipendenti dell’ufficio di San Francisco per comprare e vendere oggetti tra colleghi. In totale, sono stati conclusi 186 deal con quattro configurazioni di modelli in parallelo.

MetricaValore
Durata1 settimana
Configurazioni4 (tutto-Opus 4.7, tutto-Haiku, 2 mix)
Deal conclusi186
Vantaggio Opus vs Haiku+2 deal in media, prezzi superiori
Effetto istruzioni aggressiveNon significativo statisticamente

“New Anthropic research: Project Deal. We created a marketplace for employees in our San Francisco office—like Craigslist—where Claude agents negotiated deals on their behalf.”

🇮🇹 “Nuova ricerca Anthropic: Project Deal. Abbiamo creato un marketplace per i dipendenti del nostro ufficio di San Francisco — come Craigslist — in cui degli agenti Claude negoziavano deal per loro conto.”@AnthropicAI su X

La scoperta più notevole: le istruzioni aggressive (“negozia duramente”) non hanno avuto alcun effetto statisticamente significativo sui risultati — non a causa di un cattivo rispetto delle istruzioni, ma a causa dei vincoli propri del mercato.

🔗 Project Deal — Anthropic


Cosa significa

La giornata del 25 aprile illustra una rapida consolidazione attorno ad alcune tendenze di fondo. Sui modelli di frontiera, DeepSeek-V4 e GPT-5.5 stabiliscono un nuovo livello minimo per le capacità accessibili liberamente: un milione di token di contesto non è più un differenziatore premium. L’arrivo di DeepSeek-V4-Pro gratuitamente su NVIDIA Blackwell, unito alla promozione API del -75 %, segnala una competizione tariffaria diretta con i modelli chiusi.

Dal lato degli strumenti per sviluppatori, l’estensione dell’autonomia agentica si concretizza su più fronti simultaneamente — Claude Code v2.1.119, Codex Auto-review, Inline Agent Mode in JetBrains. Questi aggiornamenti convergono verso un unico obiettivo: ridurre le interruzioni umane nei pipeline lunghi, mantenendo al contempo punti di controllo per le operazioni a rischio. La questione del quadro legale per gli agenti che agiscono in nostro nome, sollevata da Project Deal, assume una risonanza particolare in questo contesto.

La fusione Cohere + Aleph Alpha con 600 milioni di USD di Schwarz Group è il segnale più strutturante per l’IA sovrana europea. Crea un attore transatlantico posizionato su governi e settori regolamentati, con un’infrastruttura cloud dedicata (STACKIT), in un mercato stimato a 600 miliardi di USD. La partnership Anthropic + NEC in parallelo mostra che la stessa logica di sovranità si estende all’Asia.


Fonti

Questo documento è stato tradotto dalla versione fr alla lingua it utilizzando il modello gpt-5.4-mini. Per ulteriori informazioni sul processo di traduzione, consulta https://gitlab.com/jls42/ai-powered-markdown-translator