Cerca

Anthropic + Amazon 5 GW $5B, GitHub Copilot ristruttura i suoi piani, Kimi K2.6 SOTA open-source, Qwen3.6-Max-Preview, Codex Chronicle

Anthropic + Amazon 5 GW $5B, GitHub Copilot ristruttura i suoi piani, Kimi K2.6 SOTA open-source, Qwen3.6-Max-Preview, Codex Chronicle

Il 20 aprile 2026 concentra diversi annunci strutturali: Anthropic e Amazon ampliano la loro partnership attorno a 5 GW di capacità di calcolo e a un investimento di $5B, GitHub sospende le nuove iscrizioni ai piani Copilot individuali irrigidendo al tempo stesso i limiti d’uso, e due nuovi modelli spingono verso l’alto i benchmark di coding — Kimi K2.6 in open-source e Qwen3.6-Max-Preview in proprietario. OpenAI lancia inoltre Codex Chronicle, una memoria contestuale basata su screenshot.


Anthropic e Amazon — 5 GW di compute, investimento di $5B

20 aprile — Anthropic e Amazon hanno firmato un nuovo accordo di infrastruttura che garantisce fino a 5 gigawatt (GW) di capacità di calcolo per l’addestramento e il deployment di Claude. Una capacità significativa di Trainium2 arriva già nel secondo trimestre 2026, con quasi 1 GW totale di Trainium2 e Trainium3 atteso entro la fine del 2026.

L’accordo si articola in tre parti:

VoceDettaglio
InfrastrutturaImpegno di oltre 100 miliardi USD in 10 anni verso AWS, coprendo Graviton e Trainium2 fino a Trainium4
Claude Platform su AWSLa Claude Platform completa integrata direttamente in AWS — stesso account, stessa fatturazione, senza contratti separati
InvestimentoAmazon investe oggi $5 miliardi USD in Anthropic, con fino a $20 miliardi USD aggiuntivi in futuro

Anthropic rivela che il suo fatturato annualizzato supera ormai i 30 miliardi USD, contro circa 9 miliardi a fine 2025. Questa rapida crescita ha messo sotto pressione l’infrastruttura esistente, compromettendo l’affidabilità per gli utenti gratuiti, Pro, Max e Team nelle ore di punta.

Più di 100.000 clienti eseguono già Claude su Amazon Bedrock, e Anthropic utilizza più di un milione di chip Trainium2. La Claude Platform completa è ora accessibile direttamente dall’account AWS senza richiedere contratti separati — un cambiamento concreto per sviluppatori e aziende già su AWS.

Claude resta inoltre l’unico modello di IA di punta disponibile sulle tre principali piattaforme cloud globali: AWS (Bedrock), Google Cloud (Vertex AI) e Microsoft Azure (Foundry).

“Our users tell us Claude is increasingly essential to how they work, and we need to build the infrastructure to keep pace with rapidly growing demand.”

🇮🇹 «I nostri utenti ci dicono che Claude è sempre più essenziale per il loro modo di lavorare, e dobbiamo costruire l’infrastruttura per tenere il passo con una domanda in forte crescita.»Dario Amodei, tramite @AnthropicAI su X

🔗 Annuncio ufficiale Anthropic


GitHub Copilot — Sospensione delle iscrizioni Pro/Pro+ e irrigidimento dei limiti

20 aprile — GitHub pubblica cambiamenti significativi ai piani Copilot individuali. Le nuove iscrizioni ai piani Pro, Pro+ e Student sono sospese immediatamente. Il piano Copilot Free resta invece aperto.

I cambiamenti in dettaglio:

CambiamentoDettaglio
Pausa iscrizioniPro, Pro+, Student — chiusi ai nuovi utenti. Copilot Free resta aperto
Limiti d’usoPro+ offre 5× i limiti di Pro. Avvisi in VS Code e Copilot CLI in avvicinamento al limite
Modelli OpusOpus rimosso da Copilot Pro. Opus 4.7 resta disponibile solo su Pro+. Opus 4.5 e 4.6 saranno anch’essi rimossi da Pro+ successivamente
RimborsoPossibilità di annullare e ottenere il rimborso per aprile contattando il supporto tra il 20 aprile e il 20 maggio 2026

Per gli utenti già abbonati, i piani esistenti restano attivi. L’impatto concreto: gli utenti Pro che avevano accesso ai modelli Opus perdono tale accesso, mentre Pro+ diventa di fatto il tier intermedio con 5× più quota. La finestra di rimborso fino al 20 maggio lascia un mese per decidere.

🔗 GitHub Changelog — Cambiamenti ai piani individuali


Kimi K2.6 — SOTA open-source nel coding e negli agenti

20 aprile — Moonshot AI lancia Kimi K2.6, nuovo modello open-source che stabilisce diversi record (state of the art) sui benchmark di coding e degli agenti. L’annuncio ha generato oltre 1,5 milioni di visualizzazioni in poche ore.

Benchmark open-source:

BenchmarkScore K2.6
SWE-Bench Pro58,6
SWE-bench Multilingual76,7
HLE with tools54,0
BrowseComp83,2
Toolathlon50,0
Charxiv w/ python86,7
Math Vision w/ python93,2

I miglioramenti rispetto a K2.5 sono sostanziali. Nel coding a lungo termine (long-horizon coding), K2.6 innesca fino a 4.000 chiamate a strumenti in una sessione e può funzionare per oltre 12 ore ininterrottamente, con una generalizzazione multilingua (Rust, Go, Python) e multitasking (frontend, DevOps, ottimizzazione delle prestazioni).

Anche l’architettura multi-agente è migliorata: 300 sotto-agenti paralleli × 4.000 step per esecuzione, contro 100 sotto-agenti × 1.500 step per K2.5. K2.6 supporta nativamente le interfacce frontend avanzate — video nelle sezioni hero, shader WebGL, animazioni GSAP + Framer Motion, rendering 3D Three.js.

I pesi sono disponibili in open-source su HuggingFace. L’API è accessibile su platform.moonshot.ai, e il modello gira in modalità chat e in modalità agent su kimi.com.

🔗 Annuncio Kimi K2.6 su X — 🔗 Blog Kimi K2.6 — 🔗 Pesi su HuggingFace


Qwen3.6-Max-Preview — Anteprima del prossimo modello di punta

20 aprile — Alibaba Qwen lancia Qwen3.6-Max-Preview, un’anteprima del suo prossimo modello proprietario di punta, successore di Qwen3.6-Plus.

Guadagni sui benchmark rispetto a Qwen3.6-Plus:

BenchmarkGuadagno
SkillsBench+9,9
SciCode+6,3
NL2Repo+5,0
Terminal-Bench 2.0+3,8
QwenChineseBench+5,3
SuperGPQA+2,3
ToolcallFormatIFBench+2,8

Il modello si posiziona al vertice su 6 benchmark di coding principali: SWE-bench Pro, Terminal-Bench 2.0, SkillsBench, QwenClawBench, QwenWebBench e SciCode. È disponibile da oggi in accesso anticipato tramite chat.qwen.ai e tramite l’API Alibaba Cloud Model Studio con l’identificatore qwen3.6-max-preview. È compatibile con le spec OpenAI e Anthropic, e supporta la modalità preserve_thinking per le attività agentiche.

Si tratta di una versione ancora in sviluppo attivo — sono annunciate ulteriori iterazioni prima dell’uscita finale.

🔗 Annuncio Qwen su X — 🔗 Blog Qwen3.6-Max-Preview


Codex Chronicle (Research Preview) — Memoria contestuale tramite screenshot

20 aprile — OpenAI lancia Codex Chronicle in Research Preview, una nuova funzionalità di memoria contestuale per Codex. Chronicle mette in esecuzione agenti in background per costruire memorie a partire da screenshot recenti, consentendo a Codex di riprendere una sessione di lavoro senza che l’utente debba aggiornare manualmente il contesto.

Funzionamento: gli agenti catturano periodicamente lo schermo, estraggono il contesto di lavoro e archiviano le memorie localmente sul dispositivo. L’utente può ispezionare e modificare queste memorie. OpenAI avverte che altre applicazioni possono potenzialmente accedere ai file degli screenshot.

Disponibilità limitata al lancio: riservato agli utenti Pro su macOS, esclusi i paesi UE, Regno Unito e Svizzera durante la fase di apprendimento.

🔗 Annuncio Codex Chronicle su X


Grok — Estensioni video coerenti

20 aprile — Grok Imagine annuncia estensioni video migliorate (Smarter Video Extensions). Grok vede ora il prompt originale e il clip sorgente per generare estensioni coerenti nel contenuto e nell’audio. La continuità audio viene mantenuta per tutta la durata dell’estensione. Disponibile nell’app Grok e sul web.

🔗 Annuncio Grok su X


NotebookLM — Copertine personalizzate per i notebook

16 aprile — NotebookLM consente ora di aggiungere un’illustrazione di copertina personalizzata e una descrizione a qualsiasi notebook. La funzionalità mira a personalizzare la visualizzazione a griglia prima di condividere un notebook. Formato consigliato: immagine 16:9.

🔗 Annuncio NotebookLM su X


In breve

TeenAegis AI Danger Index (18 apr.) — Nel suo primo indice di pericolosità delle IA (AI Danger Index), TeenAegis ha assegnato a OpenAI il punteggio di rischio più basso tra i fornitori valutati. L’indice valuta la protezione dei giovani utenti: controlli adeguati all’età, supervisione, segnalazione e misure di protezione. 🔗 Tweet OpenAI Newsroom

OpenAI Academy — 3M+ utenti (19 apr.) — La piattaforma di formazione all’IA di OpenAI supera i 3 milioni di utenti, con eventi in presenza organizzati questa settimana da Varsavia ad Abilene (Texas) passando per Cal State Bakersfield. 🔗 Tweet OpenAI Newsroom


Cosa significa

L’accordo Anthropic-Amazon è strutturale sotto diversi aspetti: formalizza una dipendenza reciproca (Anthropic ha bisogno del compute, Amazon ha bisogno di Claude per rendere Bedrock competitivo), e la fatturazione unificata AWS elimina un attrito reale per i team già nell’ecosistema Amazon. La cifra di run-rate a $30B annualizzato, moltiplicata per oltre 3 in pochi mesi, spiega perché l’infrastruttura sia sotto pressione e perché questo accordo fosse urgente.

Dal lato dei modelli, la giornata del 20 aprile illustra una dinamica di rapida compressione dei divari: Kimi K2.6 in open-source raggiunge punteggi comparabili a modelli proprietari usciti solo poche settimane fa, e Qwen3.6-Max-Preview posiziona Alibaba in testa ai benchmark coding ancor prima della versione finale. La ristrutturazione dei piani Copilot in GitHub segnala una tensione tra adozione ampia (Free) e monetizzazione sostenibile (Pro+), con un’esperienza utente che si frammenta in base ai tier.


Fonti

Questo documento è stato tradotto dalla versione fr alla lingua it utilizzando il modello gpt-5.4-mini. Per ulteriori informazioni sul processo di traduzione, consulta https://gitlab.com/jls42/ai-powered-markdown-translator