Giornata eccezionale nell’IA: Anthropic annuncia una raccolta fondi di 30 miliardi di dollari portando la sua valutazione a 380 miliardi, OpenAI distribuisce un modello di coding in tempo reale a 1000+ token/secondo su Cerebras, e Google spinge Gemini 3 Deep Think verso nuovi record nelle scienze. Dal lato dell’ecosistema, xAI ristruttura i suoi team attorno a 4 prodotti, Mistral investe 1,2 miliardi di euro in Svezia, e GitHub sospende temporaneamente GPT-5.3-Codex per motivi di affidabilità.
Anthropic raccoglie 30 miliardi di $ in Serie G
12 febbraio — Anthropic annuncia una raccolta fondi di 30 miliardi di dollari in Serie G, portando la valutazione post-money dell’azienda a 380 miliardi di dollari. Il round è co-guidato da GIC e Coatue, con la partecipazione di D. E. Shaw Ventures, Dragoneer, Founders Fund, ICONIQ e MGX. L’elenco degli investitori aggiuntivi include Sequoia Capital, BlackRock, Goldman Sachs, Fidelity, Microsoft e NVIDIA tra gli altri.
| Metrica | Valore |
|---|---|
| Importo raccolto | 30 miliardi $ |
| Valutazione post-money | 380 miliardi $ |
| Ricavi annualizzati (run-rate) | 14 miliardi $ |
| Crescita annuale | 10x all’anno (ultimi 3 anni) |
| Clienti >100k$/anno | Crescita di 7x in un anno |
| Clienti Enterprise >1M$/anno | Oltre 500 (vs 12 due anni fa) |
| Clienti Fortune 10 | 8 su 10 |
| Run-rate Claude Code | 2,5 miliardi $ (raddoppiato da gennaio 2026) |
| Utenti settimanali Claude Code | 2x dal 1° gennaio 2026 |
| Commit GitHub via Claude Code | 4% (raddoppiato in 1 mese) |
| Abbonamenti business Claude Code | 4x dall’inizio del 2026 |
| Quota aziendale Claude Code | >50% dei ricavi di Claude Code |
I fondi serviranno per la ricerca fondamentale, lo sviluppo del prodotto e l’espansione dell’infrastruttura. Claude rimane l’unico modello IA frontier disponibile sulle tre principali piattaforme cloud: AWS (Bedrock), Google Cloud (Vertex AI) e Microsoft Azure (Foundry). Anthropic allena ed esegue Claude su una gamma diversificata di hardware IA (AWS Trainium, Google TPUs, NVIDIA GPUs).
This fundraising reflects the incredible demand we are seeing from these customers, and we will use this investment to continue building the enterprise-grade products and models they have come to depend on.
🇮🇹 Questa raccolta fondi riflette l’incredibile domanda che stiamo osservando da parte di questi clienti e utilizzeremo questo investimento per continuare a costruire i prodotti e i modelli di livello aziendale su cui fanno affidamento. — Krishna Rao, CFO di Anthropic (@AnthropicAI su X)
GPT-5.3-Codex-Spark: modello in tempo reale su Cerebras
12 febbraio — OpenAI lancia GPT-5.3-Codex-Spark in research preview, un modello di coding in tempo reale ottimizzato per l’inferenza ultra-rapida sul Cerebras Wafer-Scale Engine 3. È il primo modello OpenAI distribuito su hardware non NVIDIA.
Codex-Spark è una versione compatta di GPT-5.3-Codex, progettata per il lavoro interattivo dove la latenza conta quanto l’intelligenza: modifiche mirate, refactoring della logica, aggiustamento di interfacce con feedback immediato.
| Specifica | Dettaglio |
|---|---|
| Token/secondo | > 1.000 (vs 50-100 per i modelli standard) |
| Finestra di contesto | 128k token |
| Formato | Solo testo (multimodale previsto successivamente) |
| Riduzione overhead client/server | 80% (WebSocket persistente) |
| Riduzione overhead per token | 30% |
| Riduzione time-to-first-token | 50% |
Il modello gira sul Cerebras Wafer-Scale Engine 3, un processore monolitico che mantiene il calcolo strettamente accoppiato per inferenza ad alto throughput. Questo lancio segna il primo passo della partnership OpenAI-Cerebras annunciata a gennaio 2026.
Codex-Spark è disponibile in research preview per gli abbonati ChatGPT Pro, nelle ultime versioni dell’app Codex, della CLI e dell’estensione VS Code. L’accesso API è limitato a partner selezionati, con una distribuzione più ampia prevista.
Su SWE-Bench Pro e Terminal-Bench 2.0, il modello mostra prestazioni solide completando le attività in una frazione del tempo rispetto a GPT-5.3-Codex. Limiti di velocità separati si applicano durante la fase di research preview.
A lungo termine, Codex offrirà due modalità complementari: ragionamento a lungo orizzonte (attività autonome di diverse ore/giorni) e collaborazione in tempo reale (iterazione rapida). Le due modalità potranno combinarsi, con delega di attività lunghe a sotto-agenti in background.
Gemini 3 Deep Think: punteggi record nelle scienze
12 febbraio — Google annuncia un aggiornamento importante di Gemini 3 Deep Think, la sua modalità di ragionamento specializzata. Il modello è ora progettato per risolvere sfide concrete in scienza, ricerca e ingegneria, oltre la teoria astratta.
Deep Think è stato aggiornato in stretta collaborazione con scienziati e ricercatori. L’obiettivo è affrontare problemi di ricerca complessi, dove i dati sono spesso disordinati o incompleti e dove non esiste un’unica soluzione. Il modello combina conoscenze scientifiche profonde e utilità in ingegneria.
Benchmark record
| Benchmark | Punteggio | Nota |
|---|---|---|
| Humanity’s Last Exam | 48,4% (senza strumenti) | Nuovo standard per i modelli frontier |
| ARC-AGI-2 | 84,6% | Verificato dalla ARC Prize Foundation |
| Codeforces | Elo 3455 | Programmazione competitiva |
| IMO 2025 | Medaglia d’oro | Olimpiade Internazionale di Matematica |
| IPhO 2025 (scritto) | Medaglia d’oro | Olimpiade Internazionale di Fisica |
| IChO 2025 (scritto) | Medaglia d’oro | Olimpiade Internazionale di Chimica |
| CMT-Benchmark | 50,5% | Fisica Teorica Avanzata |
Casi d’uso reali
- Matematica (Lisa Carbone, Rutgers University): Deep Think ha identificato una sottile falla logica in un articolo di matematica altamente tecnico, che era sfuggita alla revisione umana tra pari. Lavora sulle strutture matematiche necessarie per la fisica delle alte energie.
- Scienza dei materiali (Wang Lab, Duke University): Ottimizzazione dei metodi di produzione per la crescita di cristalli complessi, candidati per materiali semiconduttori. Deep Think ha progettato una ricetta per far crescere film sottili di oltre 100 micrometri.
- Ingegneria Meccanica (Anupam Pathak, Google Platforms & Devices): Iterazione su prototipi fisici alla velocità del software. Possibilità di trasformare uno schizzo in un oggetto stampabile in 3D (generazione di file STL).
Gemini 3 Deep Think è disponibile da oggi per gli abbonati Google AI Ultra nell’app Gemini, e per la prima volta via API in accesso anticipato per ricercatori, ingegneri e aziende.
Ristrutturazione xAI: 4 team e Macrohard
11 febbraio — xAI pubblica un all-hands di 45 minuti su X, rivelando una ristrutturazione importante dell’azienda in seguito alla partenza della metà dei suoi co-fondatori (6 su 12). Le ultime partenze sono quelle di Tony Wu e Jimmy Ba.
Elon Musk annuncia la riorganizzazione di xAI in 4 team principali:
| Team | Focus | Leader |
|---|---|---|
| Grok | Chatbot + voce | - |
| Coding | Sistema di codice applicativo | - |
| Imagine | Generazione video | - |
| Macrohard | Simulazione informatica → aziende | Toby Pohlen |
Macrohard è il progetto più ambizioso: secondo Toby Pohlen, il sistema “è in grado di fare tutto ciò che un computer può fare su un computer”. L’ambizione si estende fino alla progettazione di motori a razzo tramite l’IA.
Metriche chiave annunciate
- X ha superato 1 miliardo di USD in entrate ricorrenti annuali (abbonamenti)
- Imagine genera 50 milioni di video al giorno
- Oltre 6 miliardi di immagini negli ultimi 30 giorni
La visione interplanetaria di Musk si estende dai data center orbitali alle basi lunari. Questi annunci arrivano dopo l’acquisizione di xAI da parte di SpaceX (2 febbraio) e la partenza di 6 co-fondatori su 12 nell’ultimo anno (Kyle Kosic verso OpenAI, Christian Szegedy, Igor Babuschkin, Greg Yang, Tony Wu, Jimmy Ba).
Mistral investe 1,2 miliardi EUR in Svezia
11 febbraio — Mistral AI annuncia un investimento di 1,2 miliardi di euro (1,4 miliardi USD) per costruire un’infrastruttura IA in Svezia, in partnership con EcoDataCenter. È il primo investimento infrastrutturale IA di Mistral fuori dalla Francia.
Il data center sarà situato a Borlänge (Svezia) nel sito di EcoDataCenter, con un’apertura prevista nel 2027. L’impianto fornirà 23 megawatt di potenza di calcolo e ospiterà le GPU NVIDIA Vera Rubin di ultima generazione.
| Dettaglio | Valore |
|---|---|
| Importo | 1,2 Mrd EUR / 1,4 Mrd USD |
| Partner | EcoDataCenter |
| Localizzazione | Borlänge, Svezia |
| Apertura | 2027 |
| Capacità | 23 MW |
| GPU | NVIDIA Vera Rubin |
| Ricavi previsti | 2 Mrd EUR su 5 anni |
Arthur Mensch, CEO di Mistral AI, ha dichiarato che questo investimento è “un passo concreto verso la costruzione di capacità indipendenti in Europa, dedicate all’IA”. La scelta della Svezia si spiega con il suo accesso a un’energia pulita e relativamente economica. L’obiettivo è fornire uno stack IA interamente europeo — progettato, costruito e gestito lungo l’intera catena del valore dell’IA, con dati elaborati e archiviati localmente in Europa.
Qwen-Image-2.0: generazione ed editing di immagini unificati
10 febbraio — Alibaba lancia Qwen-Image-2.0, un modello foundation di generazione di immagini di nuova generazione che unifica la generazione text-to-image e l’editing di immagini in un’unica architettura.
Cambiamenti maggiori rispetto alla v1:
- Architettura unificata generazione + editing (precedentemente modelli separati)
- Modello più compatto: 7B parametri (contro 20B per la v1)
- Rendering del testo migliorato con supporto di prompt fino a 1K token
- Risoluzione nativa 2K (2048x2048)
| Benchmark | Qwen-Image-2.0 | FLUX.1 |
|---|---|---|
| DPG-Bench | 88,32 | 83,84 |
| AI Arena (blind eval) | #1 | - |
Il modello eccelle nel rendering di testo in cinese e inglese attraverso diversi formati: infografiche, poster, calligrafia, segnaletica. Qwen-Image-2.0 è disponibile in test API sulla piattaforma Alibaba Cloud BaiLian e gratuitamente tramite Qwen Chat (chat.qwen.ai).
Deep Research passa a GPT-5.2
10 febbraio — OpenAI aggiorna ChatGPT Deep Research con il modello GPT-5.2, sostituendo le precedenti versioni o3 e o4-mini. L’aggiornamento porta connessioni app, ricerca su siti specifici e controlli in tempo reale.
| Funzionalità | Dettaglio |
|---|---|
| Modello | GPT-5.2 (sostituisce o3 / o4-mini) |
| Connessioni app | Gmail, Google Calendar, Google Contacts + qualsiasi MCP |
| Ricerca mirata | Restrizione a siti specifici e fonti attendibili |
| Controlli tempo reale | Monitoraggio progressi, interruzione e reindirizzamento mid-run |
| Piano di ricerca | Creabile e modificabile prima dell’avvio |
| Interfaccia | Barra laterale ridisegnata + visualizzazione report a schermo intero |
| Esportazione | PDF e DOCX |
Gli utenti possono ora collegare Deep Research a qualsiasi server MCP o applicazione, e limitare le ricerche web a siti attendibili per rapporti più precisi e credibili. Le app funzionano in modalità sola lettura come fonti affidabili.
Il rilascio è iniziato il 10 febbraio per gli utenti Plus e Pro, con gli utenti Free e Go a seguire nei giorni successivi.
ChatGPT si unisce a GenAI.mil del Pentagono
10 febbraio — OpenAI annuncia il dispiegamento di una versione personalizzata di ChatGPT su GenAI.mil, la piattaforma IA enterprise del Dipartimento della Difesa americano. ChatGPT si unisce a Google Gemini (lanciato a dicembre 2025) e xAI Grok (aggiunto a fine dicembre 2025) sulla piattaforma.
| Dettaglio | Valore |
|---|---|
| Piattaforma | GenAI.mil (DoD) |
| Utenti potenziali | ~3 milioni (militari, civili, appaltatori) |
| Utenti attivi piattaforma | 1,1 milioni unici dal lancio |
| Classificazione | Solo dati non classificati |
| Infrastruttura | Cloud governativo autorizzato |
| Isolamento dati | Dati isolati, non utilizzati per addestrare i modelli OpenAI |
I casi d’uso coprono la sintesi e l’analisi di documenti di politica, la redazione di materiali di approvvigionamento, la generazione di rapporti interni e checklist di conformità, e l’assistenza alla ricerca e pianificazione.
ElevenLabs for Government
11 febbraio — ElevenLabs lancia ElevenLabs for Government, un’iniziativa dedicata al settore pubblico annunciata all’ElevenLabs Summit a Londra. Questa piattaforma offre agenti vocali e chat IA progettati per le organizzazioni governative, disponibili 24/7, in più lingue, su telefono, chat, email e WhatsApp.
La piattaforma mira a tre obiettivi:
- Accessibilità e inclusione: agenti omnicanale multilingue capaci di risolvere le richieste dei cittadini istantaneamente
- Efficienza e produttività: automazione dei contatti ad alto volume e riduzione dei trasferimenti tra servizi
- Fiducia e impegno: miglioramento dell’accesso alle comunicazioni allineate alle politiche pubbliche
| Dispiegamento | Dettagli |
|---|---|
| Repubblica Ceca | Hotline nazionali impiego e prestazioni, ~5.000 chiamate/giorno, 85% di risoluzione autonoma |
| Ucraina | Gemello digitale di un alto funzionario + servizi pubblici, in partnership con il Ministero della Trasformazione Digitale |
| Midland, Texas (USA) | Concierge civico vocale “Jacky”, riduzione stimata di 7.000 chiamate perse/mese |
La piattaforma è certificata SOC 2 Tipo 2, GDPR, CPRA e HIPAA per soddisfare i requisiti di sicurezza del settore pubblico.
Anthropic copre gli aumenti dell’elettricità
11 febbraio — Anthropic annuncia che coprirà gli aumenti dei prezzi dell’elettricità per i consumatori causati dai suoi data center. L’azienda assume quattro impegni concreti:
| Impegno | Dettaglio |
|---|---|
| Costi infrastruttura rete | Copertura del 100% dei costi di connessione alla rete |
| Nuova produzione energia | Messa in servizio di nuove capacità di generazione adatte ai bisogni |
| Riduzione pressione rete | Investimento in sistemi di riduzione del consumo nei picchi |
| Investimento comunitario | Creazione di centinaia di posti di lavoro permanenti e migliaia di posti di costruzione |
Anthropic dona 20 milioni $ per la regolamentazione IA
12 febbraio — Anthropic annuncia una donazione di 20 milioni di dollari a Public First Action, una nuova organizzazione bipartisan 501(c)(4) americana. L’obiettivo è mobilitare i cittadini e i responsabili politici sulle questioni dell’IA nell’interesse pubblico.
Il tweet di Anthropic sottolinea che l’IA viene adottata più rapidamente di qualsiasi tecnologia nella storia, e che la finestra per azzeccare le politiche pubbliche si sta chiudendo.
Claude Code Desktop: plugin locali e marketplace
11 febbraio — Boris Cherny (lead Claude Code presso Anthropic) pubblica un thread che dettaglia ciò che gli ingegneri amano in Claude Code: la sua personalizzabilità. Elenca hooks, plugin, LSPs, MCPs, skills, effort, custom agents, status lines, output styles come meccanismi di personalizzazione.
In parallelo, Lydia Hallie annuncia che Claude Code su desktop supporta ora i plugin locali. Gli utenti possono installare comandi slash personalizzati, skills e server MCP dal marketplace, con sincronizzazione automatica tra desktop e CLI.
GitHub Mobile: Model Picker per Copilot
11 febbraio — GitHub aggiunge un selettore di modelli al Copilot Coding Agent nell’applicazione GitHub Mobile, su iOS e Android.
Gli utenti Copilot Pro e Pro+ possono ora scegliere il modello IA che alimenta le loro sessioni di coding agent direttamente dal loro telefono, senza dover passare per il desktop.
| Modello disponibile | Editore |
|---|---|
| Auto (default — ottimizza velocità e prestazioni) | GitHub |
| Claude Opus 4.5 | Anthropic |
| Claude Opus 4.6 | Anthropic |
| Claude Sonnet 4.5 | Anthropic |
| GPT-5.1-Codex-Max | OpenAI |
| GPT-5.2-Codex | OpenAI |
La modalità Auto seleziona automaticamente un modello per ottimizzare velocità e prestazioni secondo la disponibilità. La funzionalità è disponibile da subito per gli abbonati Copilot Pro e Pro+. Il supporto Business e Enterprise arriverà prossimamente. Da notare: GPT-5.3-Codex, reso GA il 9 febbraio, non è ancora nella lista mobile.
GitHub sospende GPT-5.3-Codex (affidabilità)
10 febbraio — GitHub annuncia la sospensione temporanea del rilascio di GPT-5.3-Codex in GitHub Copilot per motivi di affidabilità della piattaforma, solo un giorno dopo l’annuncio della sua disponibilità generale.
Il tweet, che cita in risposta l’annuncio del 9 febbraio sulla GA di GPT-5.3-Codex, ha generato 357.500 visualizzazioni e 1.000 like, testimoniando l’impatto sulla comunità degli sviluppatori. Diversi utenti hanno segnalato problemi di disponibilità del servizio nelle risposte.
Il fatto che il modello non figuri ancora nella lista del Mobile Model Picker (annunciato l’11 febbraio) potrebbe essere legato a questa sospensione.
Manus lancia Project Skills
12 febbraio — Manus (ora sotto Meta) lancia Project Skills, una funzionalità che permette di creare librerie di competenze dedicate per progetto.
Ogni progetto può assemblare un set di skills selezionate dai pool “Team Skills” o dalle collezioni personali. L’idea: trasformare una cartella di progetto standard in un workspace intelligente e autonomo.
| Funzionalità | Descrizione |
|---|---|
| Librerie per progetto | Assemblaggio di toolkit personalizzati dai pool di team o personali |
| Workflow contenuti | Solo le skills esplicitamente aggiunte al progetto possono essere attivate |
| Workflow bloccati | Gli admin possono bloccare il set di skills per standardizzare i processi |
I benefici evidenziati: onboarding più rapido, scaling dell’esperienza individuale all’organizzazione, e costruzione di “conoscenze istituzionali” che migliorano col tempo. Disponibile immediatamente per tutti gli utenti Manus.
Gemini CLI v0.28.0 + Extension Settings
10-11 febbraio — Google pubblica la versione 0.28.0 di Gemini CLI e annuncia le Extension Settings, una nuova funzionalità per semplificare la configurazione delle estensioni.
Gemini CLI v0.28.0 (10 febbraio)
| Novità | Dettaglio |
|---|---|
Comando /prompt-suggest | Nuovo comando slash per suggerimenti di prompt |
| Tema automatico | Adattamento basato sullo sfondo del terminale |
| Compatibilità IDE | Supporto aggiunto per Positron IDE |
| OAuth migliorato | Consenso OAuth interattivo e non interattivo |
| Checklist component | Componente per la gestione di attività strutturate in plan mode |
| Sotto-agenti | Registrazione dinamica di policy per i sotto-agenti |
| Esecuzione in background | Comandi shell in background |
Extension Settings (11 febbraio)
Le estensioni Gemini CLI possono ora definire parametri di configurazione che gli utenti forniscono all’installazione. Setup automatico con prompt interattivi, sicurezza integrata (i dati sensibili come le chiavi API sono memorizzati nel keychain di sistema), e gestione centralizzata via gemini extensions config. Le estensioni Data Cloud (BigQuery, Cloud SQL, Firestore, Looker, Spanner) implementano già questa funzionalità.
Shopping IA in Google Search e Gemini
11 febbraio — Google annuncia l’integrazione di funzionalità di acquisto direttamente nei suoi prodotti IA — Search AI Mode e il chatbot Gemini.
Gli utenti possono ora acquistare articoli Etsy e Wayfair direttamente nel chatbot Gemini. Direct Offers, una nuova funzionalità in AI Mode, permette ai marchi di offrire sconti ai potenziali acquirenti. Nuovi formati pubblicitari sono in fase di test in AI Mode di Search per i rivenditori.
Google sta lavorando con Walmart, Target e Shopify su un protocollo di checkout che permette ai consumatori di finalizzare i loro acquisti direttamente nei prodotti IA di Google.
Rapporto GTIG: attacchi di distillazione su Gemini
12 febbraio — Il Google Threat Intelligence Group (GTIG) pubblica un rapporto rivelando che Gemini è stato preso di mira da attacchi di distillazione — tentativi di clonazione massicci via prompt ripetuti.
Una campagna ha inviato oltre 100.000 prompt a Gemini prima di essere rilevata. Gli attacchi miravano specificamente agli algoritmi di ragionamento di Gemini. Gli attaccanti sono principalmente aziende private e ricercatori che cercano un vantaggio competitivo.
I sistemi di Google hanno rilevato l’attività in tempo reale e adattato le protezioni. Google considera la distillazione come furto di proprietà intellettuale.
Codex CLI v0.99.0: esecuzione shell concorrente
11 febbraio — OpenAI pubblica Codex CLI v0.99.0 con l’esecuzione shell concorrente, una statusline configurabile, e API app-server dedicate.
| Funzionalità | Dettaglio |
|---|---|
| Esecuzione shell concorrente | I comandi shell diretti non bloccano più un turno in corso |
| /statusline | Configurazione interattiva dei metadati nel footer TUI |
| Resume picker adattivo | Nuovo selettore per riprendere le sessioni |
| App-server API | API dedicate per l’integrazione di applicazioni |
| Admin controls | Controlli admin per ricerca web e networking |
| Immagini | Supporto GIF/WebP |
| Snapshotting | Snapshotting dell’ambiente |
| Steer mode | Stabile e attivo di default (Invio invia, Tab mette in coda) |
Il packaging npm è stato rielaborato: i binari specifici per le piattaforme sono distribuiti via dist-tags @openai/codex, riducendo la dimensione dei pacchetti.
Qwen Chat AI Slides
12 febbraio — Qwen annuncia l’arrivo prossimo di AI Slides in Qwen Chat. La funzionalità permette di convertire diversi tipi di documenti in presentazioni: project docs → meeting slides, paper → oral deck, product info → sales deck, topic → teaching deck.
La funzionalità è costruita con Qwen Agent + Qwen-Image 2.0 (il modello immagine lanciato alcuni giorni prima). Chen Cheng ha dimostrato la capacità di trasformare articoli accademici in presentazioni orali in pochi minuti, con un agente di ricerca integrato.
Cosa significa
La raccolta fondi di 30 miliardi di dollari di Anthropic a una valutazione di 380 miliardi conferma il dominio dei modelli frontier nell’economia dell’IA. Il run-rate di 14 miliardi di dollari annuali e la quota di 2,5 miliardi generata da Claude Code mostrano che il coding assistito da IA è diventato un’infrastruttura critica per sviluppatori e aziende.
L’arrivo di GPT-5.3-Codex-Spark su Cerebras segna una svolta nella diversificazione dell’hardware IA oltre NVIDIA. L’inferenza a 1000+ token/secondo cambia la natura dell’interazione con i modelli di codice, rendendo possibile una collaborazione fluida in tempo reale.
Gemini 3 Deep Think con le sue medaglie d’oro alle olimpiadi scientifiche e il suo punteggio di 84,6% su ARC-AGI-2 dimostra che i modelli frontier iniziano a raggiungere un livello di ragionamento scientifico paragonabile ai migliori umani in campi specializzati.
La ristrutturazione di xAI in 4 team con Macrohard — che mira a fare “tutto ciò che un computer può fare” — e l’investimento massiccio di Mistral in Europa mostrano che la corsa all’infrastruttura IA accelera a livello globale. La sospensione di GPT-5.3-Codex da parte di GitHub ricorda tuttavia che l’affidabilità rimane una sfida importante per il dispiegamento su larga scala.
Fonti
- Anthropic — Serie G $30B
- Anthropic — Elettricità
- Anthropic — Public First Action
- Anthropic — Claude Code Plugin
- OpenAI — GPT-5.3-Codex-Spark
- OpenAI — Deep Research
- OpenAI — GenAI.mil
- OpenAI — Codex CLI v0.99.0
- Google — Gemini 3 Deep Think
- Google — Shopping IA
- Google — Estensioni Gemini CLI
- Google — Distillazione GTIG
- xAI — Ristrutturazione
- Mistral — Investimento Svezia
- Qwen — Image 2.0
- Qwen — AI Slides
- ElevenLabs — For Government
- GitHub — Mobile Model Picker
- GitHub — Pausa GPT-5.3-Codex
- Manus — Project Skills