Il 20 aprile 2026 concentra diversi annunci strutturali: Anthropic e Amazon ampliano la loro partnership attorno a 5 GW di capacità di calcolo e a un investimento di $5B, GitHub sospende le nuove iscrizioni ai piani Copilot individuali irrigidendo al tempo stesso i limiti d’uso, e due nuovi modelli spingono verso l’alto i benchmark di coding — Kimi K2.6 in open-source e Qwen3.6-Max-Preview in proprietario. OpenAI lancia inoltre Codex Chronicle, una memoria contestuale basata su screenshot.
Anthropic e Amazon — 5 GW di compute, investimento di $5B
20 aprile — Anthropic e Amazon hanno firmato un nuovo accordo di infrastruttura che garantisce fino a 5 gigawatt (GW) di capacità di calcolo per l’addestramento e il deployment di Claude. Una capacità significativa di Trainium2 arriva già nel secondo trimestre 2026, con quasi 1 GW totale di Trainium2 e Trainium3 atteso entro la fine del 2026.
L’accordo si articola in tre parti:
| Voce | Dettaglio |
|---|---|
| Infrastruttura | Impegno di oltre 100 miliardi USD in 10 anni verso AWS, coprendo Graviton e Trainium2 fino a Trainium4 |
| Claude Platform su AWS | La Claude Platform completa integrata direttamente in AWS — stesso account, stessa fatturazione, senza contratti separati |
| Investimento | Amazon investe oggi $5 miliardi USD in Anthropic, con fino a $20 miliardi USD aggiuntivi in futuro |
Anthropic rivela che il suo fatturato annualizzato supera ormai i 30 miliardi USD, contro circa 9 miliardi a fine 2025. Questa rapida crescita ha messo sotto pressione l’infrastruttura esistente, compromettendo l’affidabilità per gli utenti gratuiti, Pro, Max e Team nelle ore di punta.
Più di 100.000 clienti eseguono già Claude su Amazon Bedrock, e Anthropic utilizza più di un milione di chip Trainium2. La Claude Platform completa è ora accessibile direttamente dall’account AWS senza richiedere contratti separati — un cambiamento concreto per sviluppatori e aziende già su AWS.
Claude resta inoltre l’unico modello di IA di punta disponibile sulle tre principali piattaforme cloud globali: AWS (Bedrock), Google Cloud (Vertex AI) e Microsoft Azure (Foundry).
“Our users tell us Claude is increasingly essential to how they work, and we need to build the infrastructure to keep pace with rapidly growing demand.”
🇮🇹 «I nostri utenti ci dicono che Claude è sempre più essenziale per il loro modo di lavorare, e dobbiamo costruire l’infrastruttura per tenere il passo con una domanda in forte crescita.» — Dario Amodei, tramite @AnthropicAI su X
🔗 Annuncio ufficiale Anthropic
GitHub Copilot — Sospensione delle iscrizioni Pro/Pro+ e irrigidimento dei limiti
20 aprile — GitHub pubblica cambiamenti significativi ai piani Copilot individuali. Le nuove iscrizioni ai piani Pro, Pro+ e Student sono sospese immediatamente. Il piano Copilot Free resta invece aperto.
I cambiamenti in dettaglio:
| Cambiamento | Dettaglio |
|---|---|
| Pausa iscrizioni | Pro, Pro+, Student — chiusi ai nuovi utenti. Copilot Free resta aperto |
| Limiti d’uso | Pro+ offre 5× i limiti di Pro. Avvisi in VS Code e Copilot CLI in avvicinamento al limite |
| Modelli Opus | Opus rimosso da Copilot Pro. Opus 4.7 resta disponibile solo su Pro+. Opus 4.5 e 4.6 saranno anch’essi rimossi da Pro+ successivamente |
| Rimborso | Possibilità di annullare e ottenere il rimborso per aprile contattando il supporto tra il 20 aprile e il 20 maggio 2026 |
Per gli utenti già abbonati, i piani esistenti restano attivi. L’impatto concreto: gli utenti Pro che avevano accesso ai modelli Opus perdono tale accesso, mentre Pro+ diventa di fatto il tier intermedio con 5× più quota. La finestra di rimborso fino al 20 maggio lascia un mese per decidere.
🔗 GitHub Changelog — Cambiamenti ai piani individuali
Kimi K2.6 — SOTA open-source nel coding e negli agenti
20 aprile — Moonshot AI lancia Kimi K2.6, nuovo modello open-source che stabilisce diversi record (state of the art) sui benchmark di coding e degli agenti. L’annuncio ha generato oltre 1,5 milioni di visualizzazioni in poche ore.
Benchmark open-source:
| Benchmark | Score K2.6 |
|---|---|
| SWE-Bench Pro | 58,6 |
| SWE-bench Multilingual | 76,7 |
| HLE with tools | 54,0 |
| BrowseComp | 83,2 |
| Toolathlon | 50,0 |
| Charxiv w/ python | 86,7 |
| Math Vision w/ python | 93,2 |
I miglioramenti rispetto a K2.5 sono sostanziali. Nel coding a lungo termine (long-horizon coding), K2.6 innesca fino a 4.000 chiamate a strumenti in una sessione e può funzionare per oltre 12 ore ininterrottamente, con una generalizzazione multilingua (Rust, Go, Python) e multitasking (frontend, DevOps, ottimizzazione delle prestazioni).
Anche l’architettura multi-agente è migliorata: 300 sotto-agenti paralleli × 4.000 step per esecuzione, contro 100 sotto-agenti × 1.500 step per K2.5. K2.6 supporta nativamente le interfacce frontend avanzate — video nelle sezioni hero, shader WebGL, animazioni GSAP + Framer Motion, rendering 3D Three.js.
I pesi sono disponibili in open-source su HuggingFace. L’API è accessibile su platform.moonshot.ai, e il modello gira in modalità chat e in modalità agent su kimi.com.
🔗 Annuncio Kimi K2.6 su X — 🔗 Blog Kimi K2.6 — 🔗 Pesi su HuggingFace
Qwen3.6-Max-Preview — Anteprima del prossimo modello di punta
20 aprile — Alibaba Qwen lancia Qwen3.6-Max-Preview, un’anteprima del suo prossimo modello proprietario di punta, successore di Qwen3.6-Plus.
Guadagni sui benchmark rispetto a Qwen3.6-Plus:
| Benchmark | Guadagno |
|---|---|
| SkillsBench | +9,9 |
| SciCode | +6,3 |
| NL2Repo | +5,0 |
| Terminal-Bench 2.0 | +3,8 |
| QwenChineseBench | +5,3 |
| SuperGPQA | +2,3 |
| ToolcallFormatIFBench | +2,8 |
Il modello si posiziona al vertice su 6 benchmark di coding principali: SWE-bench Pro, Terminal-Bench 2.0, SkillsBench, QwenClawBench, QwenWebBench e SciCode. È disponibile da oggi in accesso anticipato tramite chat.qwen.ai e tramite l’API Alibaba Cloud Model Studio con l’identificatore qwen3.6-max-preview. È compatibile con le spec OpenAI e Anthropic, e supporta la modalità preserve_thinking per le attività agentiche.
Si tratta di una versione ancora in sviluppo attivo — sono annunciate ulteriori iterazioni prima dell’uscita finale.
🔗 Annuncio Qwen su X — 🔗 Blog Qwen3.6-Max-Preview
Codex Chronicle (Research Preview) — Memoria contestuale tramite screenshot
20 aprile — OpenAI lancia Codex Chronicle in Research Preview, una nuova funzionalità di memoria contestuale per Codex. Chronicle mette in esecuzione agenti in background per costruire memorie a partire da screenshot recenti, consentendo a Codex di riprendere una sessione di lavoro senza che l’utente debba aggiornare manualmente il contesto.
Funzionamento: gli agenti catturano periodicamente lo schermo, estraggono il contesto di lavoro e archiviano le memorie localmente sul dispositivo. L’utente può ispezionare e modificare queste memorie. OpenAI avverte che altre applicazioni possono potenzialmente accedere ai file degli screenshot.
Disponibilità limitata al lancio: riservato agli utenti Pro su macOS, esclusi i paesi UE, Regno Unito e Svizzera durante la fase di apprendimento.
🔗 Annuncio Codex Chronicle su X
Grok — Estensioni video coerenti
20 aprile — Grok Imagine annuncia estensioni video migliorate (Smarter Video Extensions). Grok vede ora il prompt originale e il clip sorgente per generare estensioni coerenti nel contenuto e nell’audio. La continuità audio viene mantenuta per tutta la durata dell’estensione. Disponibile nell’app Grok e sul web.
NotebookLM — Copertine personalizzate per i notebook
16 aprile — NotebookLM consente ora di aggiungere un’illustrazione di copertina personalizzata e una descrizione a qualsiasi notebook. La funzionalità mira a personalizzare la visualizzazione a griglia prima di condividere un notebook. Formato consigliato: immagine 16:9.
In breve
TeenAegis AI Danger Index (18 apr.) — Nel suo primo indice di pericolosità delle IA (AI Danger Index), TeenAegis ha assegnato a OpenAI il punteggio di rischio più basso tra i fornitori valutati. L’indice valuta la protezione dei giovani utenti: controlli adeguati all’età, supervisione, segnalazione e misure di protezione. 🔗 Tweet OpenAI Newsroom
OpenAI Academy — 3M+ utenti (19 apr.) — La piattaforma di formazione all’IA di OpenAI supera i 3 milioni di utenti, con eventi in presenza organizzati questa settimana da Varsavia ad Abilene (Texas) passando per Cal State Bakersfield. 🔗 Tweet OpenAI Newsroom
Cosa significa
L’accordo Anthropic-Amazon è strutturale sotto diversi aspetti: formalizza una dipendenza reciproca (Anthropic ha bisogno del compute, Amazon ha bisogno di Claude per rendere Bedrock competitivo), e la fatturazione unificata AWS elimina un attrito reale per i team già nell’ecosistema Amazon. La cifra di run-rate a $30B annualizzato, moltiplicata per oltre 3 in pochi mesi, spiega perché l’infrastruttura sia sotto pressione e perché questo accordo fosse urgente.
Dal lato dei modelli, la giornata del 20 aprile illustra una dinamica di rapida compressione dei divari: Kimi K2.6 in open-source raggiunge punteggi comparabili a modelli proprietari usciti solo poche settimane fa, e Qwen3.6-Max-Preview posiziona Alibaba in testa ai benchmark coding ancor prima della versione finale. La ristrutturazione dei piani Copilot in GitHub segnala una tensione tra adozione ampia (Free) e monetizzazione sostenibile (Pro+), con un’esperienza utente che si frammenta in base ai tier.
Fonti
- Annuncio ufficiale Anthropic + Amazon
- @AnthropicAI su X — tweet principale
- @AnthropicAI su X — dettagli $5B/$20B
- GitHub Changelog — Cambiamenti ai piani Copilot individuali
- @Kimi_Moonshot su X — Kimi K2.6
- Blog Kimi K2.6
- Kimi K2.6 su HuggingFace
- @Alibaba_Qwen su X — Qwen3.6-Max-Preview
- Blog Qwen3.6-Max-Preview
- @OpenAIDevs su X — Codex Chronicle
- @grok su X — Smarter Video Extensions
- @NotebookLM su X — Copertine personalizzate
- @OpenAINewsroom — TeenAegis AI Danger Index
- @OpenAINewsroom — OpenAI Academy 3M+
Questo documento è stato tradotto dalla versione fr alla lingua it utilizzando il modello gpt-5.4-mini. Per ulteriori informazioni sul processo di traduzione, consulta https://gitlab.com/jls42/ai-powered-markdown-translator