Cerca

Anthropic raccoglie 30 miliardi di $, GPT-5.3-Codex-Spark su Cerebras, Gemini 3 Deep Think

Anthropic raccoglie 30 miliardi di $, GPT-5.3-Codex-Spark su Cerebras, Gemini 3 Deep Think

Giornata eccezionale nell’IA: Anthropic annuncia una raccolta fondi di 30 miliardi di dollari portando la sua valutazione a 380 miliardi, OpenAI distribuisce un modello di coding in tempo reale a 1000+ token/secondo su Cerebras, e Google spinge Gemini 3 Deep Think verso nuovi record nelle scienze. Dal lato dell’ecosistema, xAI ristruttura i suoi team attorno a 4 prodotti, Mistral investe 1,2 miliardi di euro in Svezia, e GitHub sospende temporaneamente GPT-5.3-Codex per motivi di affidabilità.


Anthropic raccoglie 30 miliardi di $ in Serie G

12 febbraio — Anthropic annuncia una raccolta fondi di 30 miliardi di dollari in Serie G, portando la valutazione post-money dell’azienda a 380 miliardi di dollari. Il round è co-guidato da GIC e Coatue, con la partecipazione di D. E. Shaw Ventures, Dragoneer, Founders Fund, ICONIQ e MGX. L’elenco degli investitori aggiuntivi include Sequoia Capital, BlackRock, Goldman Sachs, Fidelity, Microsoft e NVIDIA tra gli altri.

MetricaValore
Importo raccolto30 miliardi $
Valutazione post-money380 miliardi $
Ricavi annualizzati (run-rate)14 miliardi $
Crescita annuale10x all’anno (ultimi 3 anni)
Clienti >100k$/annoCrescita di 7x in un anno
Clienti Enterprise >1M$/annoOltre 500 (vs 12 due anni fa)
Clienti Fortune 108 su 10
Run-rate Claude Code2,5 miliardi $ (raddoppiato da gennaio 2026)
Utenti settimanali Claude Code2x dal 1° gennaio 2026
Commit GitHub via Claude Code4% (raddoppiato in 1 mese)
Abbonamenti business Claude Code4x dall’inizio del 2026
Quota aziendale Claude Code>50% dei ricavi di Claude Code

I fondi serviranno per la ricerca fondamentale, lo sviluppo del prodotto e l’espansione dell’infrastruttura. Claude rimane l’unico modello IA frontier disponibile sulle tre principali piattaforme cloud: AWS (Bedrock), Google Cloud (Vertex AI) e Microsoft Azure (Foundry). Anthropic allena ed esegue Claude su una gamma diversificata di hardware IA (AWS Trainium, Google TPUs, NVIDIA GPUs).

This fundraising reflects the incredible demand we are seeing from these customers, and we will use this investment to continue building the enterprise-grade products and models they have come to depend on.

🇮🇹 Questa raccolta fondi riflette l’incredibile domanda che stiamo osservando da parte di questi clienti e utilizzeremo questo investimento per continuare a costruire i prodotti e i modelli di livello aziendale su cui fanno affidamento. — Krishna Rao, CFO di Anthropic (@AnthropicAI su X)

🔗 Annuncio ufficiale


GPT-5.3-Codex-Spark: modello in tempo reale su Cerebras

12 febbraio — OpenAI lancia GPT-5.3-Codex-Spark in research preview, un modello di coding in tempo reale ottimizzato per l’inferenza ultra-rapida sul Cerebras Wafer-Scale Engine 3. È il primo modello OpenAI distribuito su hardware non NVIDIA.

Codex-Spark è una versione compatta di GPT-5.3-Codex, progettata per il lavoro interattivo dove la latenza conta quanto l’intelligenza: modifiche mirate, refactoring della logica, aggiustamento di interfacce con feedback immediato.

SpecificaDettaglio
Token/secondo> 1.000 (vs 50-100 per i modelli standard)
Finestra di contesto128k token
FormatoSolo testo (multimodale previsto successivamente)
Riduzione overhead client/server80% (WebSocket persistente)
Riduzione overhead per token30%
Riduzione time-to-first-token50%

Il modello gira sul Cerebras Wafer-Scale Engine 3, un processore monolitico che mantiene il calcolo strettamente accoppiato per inferenza ad alto throughput. Questo lancio segna il primo passo della partnership OpenAI-Cerebras annunciata a gennaio 2026.

Codex-Spark è disponibile in research preview per gli abbonati ChatGPT Pro, nelle ultime versioni dell’app Codex, della CLI e dell’estensione VS Code. L’accesso API è limitato a partner selezionati, con una distribuzione più ampia prevista.

Su SWE-Bench Pro e Terminal-Bench 2.0, il modello mostra prestazioni solide completando le attività in una frazione del tempo rispetto a GPT-5.3-Codex. Limiti di velocità separati si applicano durante la fase di research preview.

A lungo termine, Codex offrirà due modalità complementari: ragionamento a lungo orizzonte (attività autonome di diverse ore/giorni) e collaborazione in tempo reale (iterazione rapida). Le due modalità potranno combinarsi, con delega di attività lunghe a sotto-agenti in background.

🔗 Annuncio ufficiale


Gemini 3 Deep Think: punteggi record nelle scienze

12 febbraio — Google annuncia un aggiornamento importante di Gemini 3 Deep Think, la sua modalità di ragionamento specializzata. Il modello è ora progettato per risolvere sfide concrete in scienza, ricerca e ingegneria, oltre la teoria astratta.

Deep Think è stato aggiornato in stretta collaborazione con scienziati e ricercatori. L’obiettivo è affrontare problemi di ricerca complessi, dove i dati sono spesso disordinati o incompleti e dove non esiste un’unica soluzione. Il modello combina conoscenze scientifiche profonde e utilità in ingegneria.

Benchmark record

BenchmarkPunteggioNota
Humanity’s Last Exam48,4% (senza strumenti)Nuovo standard per i modelli frontier
ARC-AGI-284,6%Verificato dalla ARC Prize Foundation
CodeforcesElo 3455Programmazione competitiva
IMO 2025Medaglia d’oroOlimpiade Internazionale di Matematica
IPhO 2025 (scritto)Medaglia d’oroOlimpiade Internazionale di Fisica
IChO 2025 (scritto)Medaglia d’oroOlimpiade Internazionale di Chimica
CMT-Benchmark50,5%Fisica Teorica Avanzata

Casi d’uso reali

  • Matematica (Lisa Carbone, Rutgers University): Deep Think ha identificato una sottile falla logica in un articolo di matematica altamente tecnico, che era sfuggita alla revisione umana tra pari. Lavora sulle strutture matematiche necessarie per la fisica delle alte energie.
  • Scienza dei materiali (Wang Lab, Duke University): Ottimizzazione dei metodi di produzione per la crescita di cristalli complessi, candidati per materiali semiconduttori. Deep Think ha progettato una ricetta per far crescere film sottili di oltre 100 micrometri.
  • Ingegneria Meccanica (Anupam Pathak, Google Platforms & Devices): Iterazione su prototipi fisici alla velocità del software. Possibilità di trasformare uno schizzo in un oggetto stampabile in 3D (generazione di file STL).

Gemini 3 Deep Think è disponibile da oggi per gli abbonati Google AI Ultra nell’app Gemini, e per la prima volta via API in accesso anticipato per ricercatori, ingegneri e aziende.

🔗 Annuncio ufficiale


Ristrutturazione xAI: 4 team e Macrohard

11 febbraio — xAI pubblica un all-hands di 45 minuti su X, rivelando una ristrutturazione importante dell’azienda in seguito alla partenza della metà dei suoi co-fondatori (6 su 12). Le ultime partenze sono quelle di Tony Wu e Jimmy Ba.

Elon Musk annuncia la riorganizzazione di xAI in 4 team principali:

TeamFocusLeader
GrokChatbot + voce-
CodingSistema di codice applicativo-
ImagineGenerazione video-
MacrohardSimulazione informatica → aziendeToby Pohlen

Macrohard è il progetto più ambizioso: secondo Toby Pohlen, il sistema “è in grado di fare tutto ciò che un computer può fare su un computer”. L’ambizione si estende fino alla progettazione di motori a razzo tramite l’IA.

Metriche chiave annunciate

  • X ha superato 1 miliardo di USD in entrate ricorrenti annuali (abbonamenti)
  • Imagine genera 50 milioni di video al giorno
  • Oltre 6 miliardi di immagini negli ultimi 30 giorni

La visione interplanetaria di Musk si estende dai data center orbitali alle basi lunari. Questi annunci arrivano dopo l’acquisizione di xAI da parte di SpaceX (2 febbraio) e la partenza di 6 co-fondatori su 12 nell’ultimo anno (Kyle Kosic verso OpenAI, Christian Szegedy, Igor Babuschkin, Greg Yang, Tony Wu, Jimmy Ba).

🔗 Articolo TechCrunch


Mistral investe 1,2 miliardi EUR in Svezia

11 febbraio — Mistral AI annuncia un investimento di 1,2 miliardi di euro (1,4 miliardi USD) per costruire un’infrastruttura IA in Svezia, in partnership con EcoDataCenter. È il primo investimento infrastrutturale IA di Mistral fuori dalla Francia.

Il data center sarà situato a Borlänge (Svezia) nel sito di EcoDataCenter, con un’apertura prevista nel 2027. L’impianto fornirà 23 megawatt di potenza di calcolo e ospiterà le GPU NVIDIA Vera Rubin di ultima generazione.

DettaglioValore
Importo1,2 Mrd EUR / 1,4 Mrd USD
PartnerEcoDataCenter
LocalizzazioneBorlänge, Svezia
Apertura2027
Capacità23 MW
GPUNVIDIA Vera Rubin
Ricavi previsti2 Mrd EUR su 5 anni

Arthur Mensch, CEO di Mistral AI, ha dichiarato che questo investimento è “un passo concreto verso la costruzione di capacità indipendenti in Europa, dedicate all’IA”. La scelta della Svezia si spiega con il suo accesso a un’energia pulita e relativamente economica. L’obiettivo è fornire uno stack IA interamente europeo — progettato, costruito e gestito lungo l’intera catena del valore dell’IA, con dati elaborati e archiviati localmente in Europa.

🔗 Articolo Tech.eu


Qwen-Image-2.0: generazione ed editing di immagini unificati

10 febbraio — Alibaba lancia Qwen-Image-2.0, un modello foundation di generazione di immagini di nuova generazione che unifica la generazione text-to-image e l’editing di immagini in un’unica architettura.

Cambiamenti maggiori rispetto alla v1:

  • Architettura unificata generazione + editing (precedentemente modelli separati)
  • Modello più compatto: 7B parametri (contro 20B per la v1)
  • Rendering del testo migliorato con supporto di prompt fino a 1K token
  • Risoluzione nativa 2K (2048x2048)
BenchmarkQwen-Image-2.0FLUX.1
DPG-Bench88,3283,84
AI Arena (blind eval)#1-

Il modello eccelle nel rendering di testo in cinese e inglese attraverso diversi formati: infografiche, poster, calligrafia, segnaletica. Qwen-Image-2.0 è disponibile in test API sulla piattaforma Alibaba Cloud BaiLian e gratuitamente tramite Qwen Chat (chat.qwen.ai).

🔗 Annuncio ufficiale


Deep Research passa a GPT-5.2

10 febbraio — OpenAI aggiorna ChatGPT Deep Research con il modello GPT-5.2, sostituendo le precedenti versioni o3 e o4-mini. L’aggiornamento porta connessioni app, ricerca su siti specifici e controlli in tempo reale.

FunzionalitàDettaglio
ModelloGPT-5.2 (sostituisce o3 / o4-mini)
Connessioni appGmail, Google Calendar, Google Contacts + qualsiasi MCP
Ricerca mirataRestrizione a siti specifici e fonti attendibili
Controlli tempo realeMonitoraggio progressi, interruzione e reindirizzamento mid-run
Piano di ricercaCreabile e modificabile prima dell’avvio
InterfacciaBarra laterale ridisegnata + visualizzazione report a schermo intero
EsportazionePDF e DOCX

Gli utenti possono ora collegare Deep Research a qualsiasi server MCP o applicazione, e limitare le ricerche web a siti attendibili per rapporti più precisi e credibili. Le app funzionano in modalità sola lettura come fonti affidabili.

Il rilascio è iniziato il 10 febbraio per gli utenti Plus e Pro, con gli utenti Free e Go a seguire nei giorni successivi.

🔗 Annuncio ufficiale


ChatGPT si unisce a GenAI.mil del Pentagono

10 febbraio — OpenAI annuncia il dispiegamento di una versione personalizzata di ChatGPT su GenAI.mil, la piattaforma IA enterprise del Dipartimento della Difesa americano. ChatGPT si unisce a Google Gemini (lanciato a dicembre 2025) e xAI Grok (aggiunto a fine dicembre 2025) sulla piattaforma.

DettaglioValore
PiattaformaGenAI.mil (DoD)
Utenti potenziali~3 milioni (militari, civili, appaltatori)
Utenti attivi piattaforma1,1 milioni unici dal lancio
ClassificazioneSolo dati non classificati
InfrastrutturaCloud governativo autorizzato
Isolamento datiDati isolati, non utilizzati per addestrare i modelli OpenAI

I casi d’uso coprono la sintesi e l’analisi di documenti di politica, la redazione di materiali di approvvigionamento, la generazione di rapporti interni e checklist di conformità, e l’assistenza alla ricerca e pianificazione.

🔗 Annuncio ufficiale


ElevenLabs for Government

11 febbraio — ElevenLabs lancia ElevenLabs for Government, un’iniziativa dedicata al settore pubblico annunciata all’ElevenLabs Summit a Londra. Questa piattaforma offre agenti vocali e chat IA progettati per le organizzazioni governative, disponibili 24/7, in più lingue, su telefono, chat, email e WhatsApp.

La piattaforma mira a tre obiettivi:

  • Accessibilità e inclusione: agenti omnicanale multilingue capaci di risolvere le richieste dei cittadini istantaneamente
  • Efficienza e produttività: automazione dei contatti ad alto volume e riduzione dei trasferimenti tra servizi
  • Fiducia e impegno: miglioramento dell’accesso alle comunicazioni allineate alle politiche pubbliche
DispiegamentoDettagli
Repubblica CecaHotline nazionali impiego e prestazioni, ~5.000 chiamate/giorno, 85% di risoluzione autonoma
UcrainaGemello digitale di un alto funzionario + servizi pubblici, in partnership con il Ministero della Trasformazione Digitale
Midland, Texas (USA)Concierge civico vocale “Jacky”, riduzione stimata di 7.000 chiamate perse/mese

La piattaforma è certificata SOC 2 Tipo 2, GDPR, CPRA e HIPAA per soddisfare i requisiti di sicurezza del settore pubblico.

🔗 Annuncio ufficiale


Anthropic copre gli aumenti dell’elettricità

11 febbraio — Anthropic annuncia che coprirà gli aumenti dei prezzi dell’elettricità per i consumatori causati dai suoi data center. L’azienda assume quattro impegni concreti:

ImpegnoDettaglio
Costi infrastruttura reteCopertura del 100% dei costi di connessione alla rete
Nuova produzione energiaMessa in servizio di nuove capacità di generazione adatte ai bisogni
Riduzione pressione reteInvestimento in sistemi di riduzione del consumo nei picchi
Investimento comunitarioCreazione di centinaia di posti di lavoro permanenti e migliaia di posti di costruzione

🔗 Annuncio ufficiale


Anthropic dona 20 milioni $ per la regolamentazione IA

12 febbraio — Anthropic annuncia una donazione di 20 milioni di dollari a Public First Action, una nuova organizzazione bipartisan 501(c)(4) americana. L’obiettivo è mobilitare i cittadini e i responsabili politici sulle questioni dell’IA nell’interesse pubblico.

Il tweet di Anthropic sottolinea che l’IA viene adottata più rapidamente di qualsiasi tecnologia nella storia, e che la finestra per azzeccare le politiche pubbliche si sta chiudendo.

🔗 Annuncio su X


Claude Code Desktop: plugin locali e marketplace

11 febbraio — Boris Cherny (lead Claude Code presso Anthropic) pubblica un thread che dettaglia ciò che gli ingegneri amano in Claude Code: la sua personalizzabilità. Elenca hooks, plugin, LSPs, MCPs, skills, effort, custom agents, status lines, output styles come meccanismi di personalizzazione.

In parallelo, Lydia Hallie annuncia che Claude Code su desktop supporta ora i plugin locali. Gli utenti possono installare comandi slash personalizzati, skills e server MCP dal marketplace, con sincronizzazione automatica tra desktop e CLI.

🔗 Thread Boris Cherny


GitHub Mobile: Model Picker per Copilot

11 febbraio — GitHub aggiunge un selettore di modelli al Copilot Coding Agent nell’applicazione GitHub Mobile, su iOS e Android.

Gli utenti Copilot Pro e Pro+ possono ora scegliere il modello IA che alimenta le loro sessioni di coding agent direttamente dal loro telefono, senza dover passare per il desktop.

Modello disponibileEditore
Auto (default — ottimizza velocità e prestazioni)GitHub
Claude Opus 4.5Anthropic
Claude Opus 4.6Anthropic
Claude Sonnet 4.5Anthropic
GPT-5.1-Codex-MaxOpenAI
GPT-5.2-CodexOpenAI

La modalità Auto seleziona automaticamente un modello per ottimizzare velocità e prestazioni secondo la disponibilità. La funzionalità è disponibile da subito per gli abbonati Copilot Pro e Pro+. Il supporto Business e Enterprise arriverà prossimamente. Da notare: GPT-5.3-Codex, reso GA il 9 febbraio, non è ancora nella lista mobile.

🔗 GitHub Changelog


GitHub sospende GPT-5.3-Codex (affidabilità)

10 febbraio — GitHub annuncia la sospensione temporanea del rilascio di GPT-5.3-Codex in GitHub Copilot per motivi di affidabilità della piattaforma, solo un giorno dopo l’annuncio della sua disponibilità generale.

Il tweet, che cita in risposta l’annuncio del 9 febbraio sulla GA di GPT-5.3-Codex, ha generato 357.500 visualizzazioni e 1.000 like, testimoniando l’impatto sulla comunità degli sviluppatori. Diversi utenti hanno segnalato problemi di disponibilità del servizio nelle risposte.

Il fatto che il modello non figuri ancora nella lista del Mobile Model Picker (annunciato l’11 febbraio) potrebbe essere legato a questa sospensione.

🔗 Annuncio su X


Manus lancia Project Skills

12 febbraio — Manus (ora sotto Meta) lancia Project Skills, una funzionalità che permette di creare librerie di competenze dedicate per progetto.

Ogni progetto può assemblare un set di skills selezionate dai pool “Team Skills” o dalle collezioni personali. L’idea: trasformare una cartella di progetto standard in un workspace intelligente e autonomo.

FunzionalitàDescrizione
Librerie per progettoAssemblaggio di toolkit personalizzati dai pool di team o personali
Workflow contenutiSolo le skills esplicitamente aggiunte al progetto possono essere attivate
Workflow bloccatiGli admin possono bloccare il set di skills per standardizzare i processi

I benefici evidenziati: onboarding più rapido, scaling dell’esperienza individuale all’organizzazione, e costruzione di “conoscenze istituzionali” che migliorano col tempo. Disponibile immediatamente per tutti gli utenti Manus.

🔗 Annuncio ufficiale


Gemini CLI v0.28.0 + Extension Settings

10-11 febbraio — Google pubblica la versione 0.28.0 di Gemini CLI e annuncia le Extension Settings, una nuova funzionalità per semplificare la configurazione delle estensioni.

Gemini CLI v0.28.0 (10 febbraio)

NovitàDettaglio
Comando /prompt-suggestNuovo comando slash per suggerimenti di prompt
Tema automaticoAdattamento basato sullo sfondo del terminale
Compatibilità IDESupporto aggiunto per Positron IDE
OAuth miglioratoConsenso OAuth interattivo e non interattivo
Checklist componentComponente per la gestione di attività strutturate in plan mode
Sotto-agentiRegistrazione dinamica di policy per i sotto-agenti
Esecuzione in backgroundComandi shell in background

Extension Settings (11 febbraio)

Le estensioni Gemini CLI possono ora definire parametri di configurazione che gli utenti forniscono all’installazione. Setup automatico con prompt interattivi, sicurezza integrata (i dati sensibili come le chiavi API sono memorizzati nel keychain di sistema), e gestione centralizzata via gemini extensions config. Le estensioni Data Cloud (BigQuery, Cloud SQL, Firestore, Looker, Spanner) implementano già questa funzionalità.

🔗 Annuncio ufficiale


Shopping IA in Google Search e Gemini

11 febbraio — Google annuncia l’integrazione di funzionalità di acquisto direttamente nei suoi prodotti IA — Search AI Mode e il chatbot Gemini.

Gli utenti possono ora acquistare articoli Etsy e Wayfair direttamente nel chatbot Gemini. Direct Offers, una nuova funzionalità in AI Mode, permette ai marchi di offrire sconti ai potenziali acquirenti. Nuovi formati pubblicitari sono in fase di test in AI Mode di Search per i rivenditori.

Google sta lavorando con Walmart, Target e Shopify su un protocollo di checkout che permette ai consumatori di finalizzare i loro acquisti direttamente nei prodotti IA di Google.

🔗 Articolo PYMNTS


Rapporto GTIG: attacchi di distillazione su Gemini

12 febbraio — Il Google Threat Intelligence Group (GTIG) pubblica un rapporto rivelando che Gemini è stato preso di mira da attacchi di distillazione — tentativi di clonazione massicci via prompt ripetuti.

Una campagna ha inviato oltre 100.000 prompt a Gemini prima di essere rilevata. Gli attacchi miravano specificamente agli algoritmi di ragionamento di Gemini. Gli attaccanti sono principalmente aziende private e ricercatori che cercano un vantaggio competitivo.

I sistemi di Google hanno rilevato l’attività in tempo reale e adattato le protezioni. Google considera la distillazione come furto di proprietà intellettuale.

🔗 Articolo NBC News


Codex CLI v0.99.0: esecuzione shell concorrente

11 febbraio — OpenAI pubblica Codex CLI v0.99.0 con l’esecuzione shell concorrente, una statusline configurabile, e API app-server dedicate.

FunzionalitàDettaglio
Esecuzione shell concorrenteI comandi shell diretti non bloccano più un turno in corso
/statuslineConfigurazione interattiva dei metadati nel footer TUI
Resume picker adattivoNuovo selettore per riprendere le sessioni
App-server APIAPI dedicate per l’integrazione di applicazioni
Admin controlsControlli admin per ricerca web e networking
ImmaginiSupporto GIF/WebP
SnapshottingSnapshotting dell’ambiente
Steer modeStabile e attivo di default (Invio invia, Tab mette in coda)

Il packaging npm è stato rielaborato: i binari specifici per le piattaforme sono distribuiti via dist-tags @openai/codex, riducendo la dimensione dei pacchetti.

🔗 Changelog Codex CLI


Qwen Chat AI Slides

12 febbraio — Qwen annuncia l’arrivo prossimo di AI Slides in Qwen Chat. La funzionalità permette di convertire diversi tipi di documenti in presentazioni: project docs → meeting slides, paper → oral deck, product info → sales deck, topic → teaching deck.

La funzionalità è costruita con Qwen Agent + Qwen-Image 2.0 (il modello immagine lanciato alcuni giorni prima). Chen Cheng ha dimostrato la capacità di trasformare articoli accademici in presentazioni orali in pochi minuti, con un agente di ricerca integrato.

🔗 Annuncio su X


Cosa significa

La raccolta fondi di 30 miliardi di dollari di Anthropic a una valutazione di 380 miliardi conferma il dominio dei modelli frontier nell’economia dell’IA. Il run-rate di 14 miliardi di dollari annuali e la quota di 2,5 miliardi generata da Claude Code mostrano che il coding assistito da IA è diventato un’infrastruttura critica per sviluppatori e aziende.

L’arrivo di GPT-5.3-Codex-Spark su Cerebras segna una svolta nella diversificazione dell’hardware IA oltre NVIDIA. L’inferenza a 1000+ token/secondo cambia la natura dell’interazione con i modelli di codice, rendendo possibile una collaborazione fluida in tempo reale.

Gemini 3 Deep Think con le sue medaglie d’oro alle olimpiadi scientifiche e il suo punteggio di 84,6% su ARC-AGI-2 dimostra che i modelli frontier iniziano a raggiungere un livello di ragionamento scientifico paragonabile ai migliori umani in campi specializzati.

La ristrutturazione di xAI in 4 team con Macrohard — che mira a fare “tutto ciò che un computer può fare” — e l’investimento massiccio di Mistral in Europa mostrano che la corsa all’infrastruttura IA accelera a livello globale. La sospensione di GPT-5.3-Codex da parte di GitHub ricorda tuttavia che l’affidabilità rimane una sfida importante per il dispiegamento su larga scala.


Fonti