Il 27 aprile 2026 segna una giornata densa di annunci strutturali: OpenAI e Microsoft rivedono il loro accordo di partnership per dare a OpenAI maggiore flessibilità multi-cloud pur mantenendo Azure come cloud principale, GitHub rivela la fine delle “premium request units” a favore di un nuovo sistema di crediti fatturati all’uso, e Google DeepMind formalizza una partnership scientifica di rilievo con la Repubblica di Corea. Symphony, la specifica open source di OpenAI per l’orchestrazione di Codex, completa una giornata che ridisegna i contorni dell’infrastruttura IA.
OpenAI × Microsoft — accordo emendato fino al 2032
27 aprile — OpenAI e Microsoft annunciano un accordo emendato che semplifica e riorganizza la loro partnership a lungo termine. Finora, la struttura contrattuale legava strettamente OpenAI ad Azure con una licenza esclusiva e un meccanismo di condivisione dei ricavi (revenue share) in entrambe le direzioni. Il nuovo accordo modifica le regole del gioco.
| Aspetto | Prima | Dopo (accordo emendato) |
|---|---|---|
| Cloud principale | Azure esclusivo | Azure resta prioritario, ma OpenAI può utilizzare altri cloud |
| Licenza Microsoft | Esclusiva | Non esclusiva fino al 2032 |
| Revenue share Microsoft → OpenAI | Sì | Eliminato |
| Revenue share OpenAI → Microsoft | Sì | Mantenuto fino al 2030, stessa percentuale ma con tetto |
| Azionariato Microsoft | — | Invariato (azionista principale) |
Il cambiamento centrale è la libertà multi-cloud: OpenAI può ora firmare accordi con altri fornitori di infrastruttura senza violare i propri impegni verso Microsoft. Per Microsoft, la soppressione del revenue share in entrata (MS → OAI) semplifica la contabilità, mentre la licenza non esclusiva le lascia la possibilità di sviluppare i propri modelli concorrenti senza restrizioni.
“The greater predictability in the amended agreement strengthens our joint ability to build and operate AI platforms at scale while providing both companies the flexibility to pursue new opportunities.”
🇮🇹 La maggiore prevedibilità dell’accordo emendato rafforza la nostra capacità comune di costruire e gestire piattaforme IA su larga scala, dando al tempo stesso alle due aziende la flessibilità necessaria per cogliere nuove opportunità. — OpenAI
GitHub Copilot — fatturazione all’uso tramite GitHub AI Credits dal 1° giugno
27 aprile — GitHub annuncia che tutti i piani Copilot passeranno a un modello di fatturazione all’uso (usage-based billing) a partire dal 1° giugno 2026. La nozione di “premium request units” (PRUs) scompare a favore dei GitHub AI Credits, consumati in base all’uso reale di token (input, output, cache) secondo una tariffa per modello.
Starting June 1st, GitHub Copilot will move to a usage-based billing model as GitHub Copilot supports more agentic and advanced workflows.
🇮🇹 A partire dal 1° giugno, GitHub Copilot passerà a un modello di fatturazione all’uso, man mano che Copilot supporta workflow agentici e avanzati. — @github su X
I prezzi dei piani restano invariati — la novità è che i crediti inclusi sono ora equivalenti al prezzo mensile del piano:
| Piano | Prezzo mensile | AI Credits inclusi | Bonus di transizione |
|---|---|---|---|
| Copilot Pro | $10/mese | $10 in crediti | — |
| Copilot Pro+ | $39/mese | $39 in crediti | — |
| Copilot Business | $19/utente/mese | $19 in crediti | $30/mese aggiuntivi (transizione) |
| Copilot Enterprise | $39/utente/mese | $39 in crediti | $70/mese aggiuntivi (transizione) |
Punti chiave per i team:
- Le completions di codice e i suggerimenti Next Edit restano inclusi senza consumare crediti
- Il meccanismo di fallback verso modelli meno costosi (quando i PRUs erano esauriti) scompare — quando i crediti sono consumati, l’uso si interrompe immediatamente
- Copilot code review consumerà minuti di GitHub Actions oltre agli AI Credits
- I crediti sono poolati a livello di organizzazione — fine dei crediti persi per posto inutilizzato
- Una preview bill sarà disponibile a maggio per stimare i costi reali prima del passaggio
- Gli admin disporranno di nuovi controlli di budget (enterprise, cost center, team, utente)
OpenAI Symphony — specifica open source per l’orchestrazione di Codex
27 aprile — Il team di ingegneria di OpenAI pubblica Symphony, una specifica open source per orchestrare più sessioni Codex in parallelo. Il progetto nasce da un vincolo interno radicale: costruire un intero repository senza una sola riga di codice umano, con ogni contributo generato da Codex.
Symphony risolve il collo di bottiglia emerso rapidamente in questo esercizio: il cambio di contesto (context switching) tra sessioni Codex indipendenti richiedeva troppo tempo di supervisione umana. La soluzione orchestra automaticamente più agenti su task paralleli, li fa girare su devboxes in modo continuo e consente di inviare ticket da qualsiasi dispositivo — telefono, connessione scarsa — così che gli agenti li trattino senza intervento.
| Metrica | Valore |
|---|---|
| Aumento delle PR consegnate | +500 % in 3 settimane (alcuni team OpenAI) |
| Adozione esterna | Linear ha segnalato un picco di creazione di workspace al rilascio |
L’insight centrale del team: quando gli ingegneri non devono più supervisionare attivamente le sessioni Codex, il costo percepito di ogni modifica di codice crolla. I team esplorano di più, prototipano più liberamente e abbandonano più facilmente le piste senza valore aggiunto.
Google DeepMind × Repubblica di Corea — partnership scientifica nazionale
27 aprile — Google DeepMind annuncia una partnership con il ministero delle Scienze e delle TIC della Corea (MSIT), in occasione del 10° anniversario della storica partita di AlphaGo a Seul. L’accordo prevede diversi assi concreti:
| Voce | Dettaglio |
|---|---|
| AI Campus | Creazione di un campus IA a Seul per sostenere la ricerca accademica coreana |
| Strumenti distribuiti | AlphaEvolve, AlphaGenome, AlphaFold, AI co-scientist, WeatherNext |
| Adozione esistente | AlphaFold già utilizzato da 85 000 ricercatori coreani |
| Borse | 50 000 borse AI Essentials per lo sviluppo dei talenti |
| Sicurezza IA | Collaborazione con l’Istituto coreano di sicurezza IA (AISI) |
| NAIS | Centro nazionale IA per la scienza previsto per maggio 2026 |
“Ten years ago, the historic AlphaGo match in Seoul captured the world’s imagination and showcased the profound potential of artificial intelligence. Together with the Korean government, we’re now looking at how this technology can help accelerate scientific discovery and create new opportunities for economic growth across the region.”
🇮🇹 Dieci anni fa, la storica partita di AlphaGo a Seul ha catturato l’immaginazione di tutto il mondo e ha messo in luce il profondo potenziale dell’intelligenza artificiale. Con il governo coreano, stiamo ora esaminando come questa tecnologia possa contribuire ad accelerare la scoperta scientifica e creare nuove opportunità di crescita economica nella regione. — Google DeepMind
OpenAI “Our Principles” — cinque principi per l’era AGI
26 aprile — Sam Altman pubblica “Our Principles”, un documento che articola la visione di OpenAI sul ruolo dell’IA nella società. La tesi centrale: l’IA può trasformare la società su una scala superiore a quella della macchina a vapore o dell’elettricità, e la domanda fondamentale è se il potere derivante dall’AGI sarà concentrato in poche aziende o distribuito ampiamente.
| Principio (EN) | Traduzione IT |
|---|---|
| Democratization | Democratizzazione |
| Empowerment | Responsabilizzazione (Empowerment) |
| Universal Prosperity | Prosperità universale |
| Resilience | Resilienza |
| Adaptability | Adattabilità |
Kimi K2.6 — primo nella classifica settimanale OpenRouter
27 aprile — Kimi K2.6 si porta al primo posto della classifica settimanale (weekly leaderboard) dei modelli linguistici su OpenRouter, che aggrega le richieste di migliaia di sviluppatori per stabilire una misura dell’uso reale. Questa posizione riflette un’adozione da parte degli sviluppatori significativa, in particolare nei domini agentico e di lunga finestra di contesto dove K2.6 si era distinto con i suoi 300 sotto-agenti paralleli (annunciato il 23 aprile).
Brevi
- Z.ai — estensione del periodo “triple usage” GLM-5.1 e GLM-5-Turbo — Z.ai proroga fino al 30 giugno 2026 l’offerta che permette agli abbonati GLM Coding Plan di beneficiare dello stesso volume di richieste di GLM-5-Plus a una tariffa inferiore. 🔗 source
- Genspark × Anthropic — primo hackathon a Singapore — 40+ progetti, $18 000 in crediti API, partner Temasek e Devfolio. I team hanno costruito strumenti per automatizzare conversazioni commerciali, sostituire i biglietti da visita e capitalizzare sulla conoscenza collettiva dei team. 🔗 source
- Google & Kaggle — GenAI Intensive Vibe Coding Course (15-19 giugno 2026) — Ritorno del corso gratuito in 5 giorni, questa volta con un focus sul “vibe coding” (programmazione tramite linguaggio naturale). La prima edizione aveva riunito 1,5 milioni di studenti nel novembre 2025. 🔗 source
- Midjourney — classifica ad alta risoluzione 2K per v8.1/8.2 — Prima sessione di classifica comunitaria a piena risoluzione 2K per rifinire l’estetica nativa ad alta definizione delle versioni v8.1 e v8.2 in arrivo. 🔗 source
Cosa significa
La giornata del 27 aprile illustra una ricomposizione delle alleanze e dei modelli economici dell’IA. L’accordo emendato OpenAI × Microsoft segnala che le grandi piattaforme IA cercano ormai di affrancarsi dalle dipendenze cloud esclusive — un movimento che avvantaggia AWS, Google Cloud e Oracle tanto quanto OpenAI. Per gli sviluppatori, il segnale più concreto è il passaggio di GitHub Copilot agli AI Credits: la fine del fallback di modello significa che una lunga sessione agentica può esaurire il budget mensile, e i team dovranno calibrare i propri usi prima del 1° giugno. Symphony di OpenAI spinge nella stessa direzione: l’orchestrazione parallela di agenti diventa una pratica ingegneristica a tutti gli effetti, con risultati misurabili (+500 % di PR consegnate) che giustificano l’investimento nell’infrastruttura attorno a Codex. Sul piano geopolitico, la partnership DeepMind × Corea conferma la tendenza dei grandi lab a stringere accordi nazionali per radicare la propria presenza accademica e politica in ecosistemi regionali chiave.
Fonti
- OpenAI — La prossima fase della partnership con Microsoft
- OpenAI Engineering — Una specifica open source per l’orchestrazione di Codex: Symphony
- OpenAI — I nostri principi
- Sam Altman su X
- GitHub Blog — GitHub Copilot sta passando alla fatturazione basata sull’uso
- @github su X
- Google DeepMind — Annuncio della nostra partnership con la Repubblica di Corea
- @GoogleDeepMind su X
- Kaggle GenAI Intensive Vibe Coding Course — blog.google
- @Kimi_Moonshot su X
- @Zai_org su X
- @genspark_ai su X
- Midjourney — Valutazione alta risoluzione
- Midjourney — Classifica v8.1
Questo documento è stato tradotto dalla versione fr alla lingua it utilizzando il modello gpt-5.4-mini. Per ulteriori informazioni sul processo di traduzione, consulta https://github.com/jls42/ai-powered-markdown-translator