Cerca

OpenAI raccoglie 122 miliardi di dollari, Qwen3.5-Omni e 15 funzionalità nascoste di Claude Code

OpenAI raccoglie 122 miliardi di dollari, Qwen3.5-Omni e 15 funzionalità nascoste di Claude Code

Tre annunci dominano la fine del mese: OpenAI chiude il più grande round di finanziamento privato nella storia della tech con 122 miliardi di dollari e una valutazione di 852 miliardi, Qwen compie un passo avanti con un modello omnimodale nativo capace di vedere, ascoltare e programmare simultaneamente, e il responsabile di Claude Code pubblica un thread virale che svela 15 funzionalità poco conosciute dello strumento. La settimana è anche segnata dal lancio del Secure Intelligence Institute di Perplexity, da nuovi strumenti GitHub Copilot e da iniziative infrastrutturali di Runway e NVIDIA.


OpenAI raccoglie 122 miliardi di dollari

31 marzo — OpenAI annuncia la chiusura del suo ultimo round di finanziamento con 122 miliardi di dollari di capitale impegnato, per una valutazione post-money di 852 miliardi di dollari. È uno dei più grandi round privati nella storia della tecnologia.

Il round è co-guidato da SoftBank e a16z, con la partecipazione strategica di Amazon, NVIDIA e Microsoft. Per la prima volta, OpenAI ha esteso la partecipazione a investitori individuali tramite banche, raccogliendo oltre 3 miliardi di dollari da privati. ARK Invest integrerà inoltre OpenAI in diversi fondi indicizzati quotati (ETF).

A supporto di questa raccolta, OpenAI pubblica metriche di crescita:

IndicatoreValore
Utenti attivi settimanali ChatGPT900 milioni
Abbonati a pagamento ChatGPT50 milioni
Ricavi mensili2 miliardi di dollari
Tokens processati dall’API (al minuto)15 miliardi
Utenti settimanali Codex2 milioni (+5× in 3 mesi)
Crescita mensile di Codex+70%

La società descrive una roadmap incentrata su una “AI superapp” (AI superapp): un’interfaccia unificata che raccoglie ChatGPT, Codex, la ricerca web e gli agenti IA. L’obiettivo dichiarato è superare il miliardo di utenti attivi settimanali. Le aziende rappresentano già il 40% dei ricavi.

GPT-5.4, il modello più recente di OpenAI, è descritto come portatore di miglioramenti nel ragionamento, nella programmazione e nei flussi di lavoro agentici (agentic workflows). La crescita di OpenAI viene presentata come 4 volte più rapida rispetto a Google e Meta allo stesso stadio.

🔗 Annuncio ufficiale OpenAI


Qwen3.5-Omni: modello omnimodale nativo

29 marzo — Alibaba Qwen lancia Qwen3.5-Omni, un modello progettato nativamente per gestire testo, immagini, audio e video in un unico modello unificato. Contrariamente alle approcci multimodali classici che aggiungono modalità a strati, questo modello elabora questi input simultaneamente.

Le capacità a livello grezzo sono rilevanti: fino a 10 ore di audio o 400 secondi di video 720p nativamente, addestrato su oltre 100 milioni di ore di dati, riconoscimento vocale in 113 lingue ed espressione in 36 lingue.

Funzionalità principale: Audio-Visual Vibe Coding

La funzionalità più direttamente utilizzabile è l‘“Audio-Visual Vibe Coding”: l’utente descrive il proprio progetto a voce davanti a una videocamera e Qwen3.5-Omni-Plus genera un sito web o un gioco funzionante. È un’applicazione del concetto di codifica per intenzione (vibe coding) estesa ad audio e video in tempo reale.

Prestazioni a confronto

CategoriaQwen3.5-Omni-PlusGemini 3.1 Pro
DailyOmni (audio/vision)84,682,7
WorldScene62,865,5
QualocommInteractive68,552,3
OmniClear64,855,5
IFEval (testo)89,793,5
MMLU-Redux94,290,0

Il modello supera Gemini 3.1 Pro sui benchmark audio ed è equivalente nella comprensione audio-visiva.

Capacità vocali

  • Controllo vocale fine: regolazione dell’emozione, del ritmo e del volume in tempo reale
  • Clonazione vocale (Voice Cloning) da un breve campione (deployment ingegneristico annunciato a breve)
  • Turno di parola intelligente (Semantic Interruption) che comprende l’intento reale e ignora il rumore ambientale
  • Ricerca web integrata e chiamate di funzione complesse

Famiglia di modelli

VariantePosizionamento
Qwen3.5-Omni-PlusPrestazioni SOTA, captioning audio-visivo dettagliato
Qwen3.5-Omni-Plus-RealtimeVoice Control, WebSearch, Voice Clone, Semantic Interruption
Qwen3.5-Omni-FlashVelocità
Qwen3.5-Omni-LightLeggerezza

Accesso tramite chat.qwen.ai (pulsante VoiceChat/VideoChat) e l’API Alibaba Cloud.

Nota aggiuntiva: Qwen 3.6 Plus Preview è disponibile gratuitamente su OpenRouter per un periodo limitato — gli scambi vengono raccolti durante questo periodo per migliorare il modello.

🔗 Tweet di @Alibaba_Qwen


15 funzionalità nascoste di Claude Code

30 marzo — Boris Cherny, responsabile di Claude Code presso Anthropic, ha pubblicato un thread che rivela 15 funzionalità poco documentate dello strumento. Il thread ha raggiunto 3,6 milioni di visualizzazioni, 2.000 repost e 22.000 like.

“I wanted to share a bunch of my favorite hidden and under-utilized features in Claude Code. I’ll focus on the ones I use the most. Here goes.”

🇮🇹 Volevo condividere alcune delle mie funzionalità preferite, poco conosciute e poco sfruttate in Claude Code. Mi concentrerò su quelle che uso di più. Cominciamo.@bcherny su X

Mobilità e sessioni a distanza

  • L’app Claude per iOS e Android include una scheda Code che permette di programmare dal telefono
  • --teleport (o /teleport) permette di spostare una sessione cloud su una macchina locale; /remote-control permette di pilotare una sessione locale da qualsiasi dispositivo
  • Cowork Dispatch: controllo remoto sicuro della Claude Desktop App da mobile, con accesso ai server MCP (Model Context Protocol), al browser, ecc.

Automazione

  • /loop e /schedule consentono di avviare Claude automaticamente a intervalli definiti, fino a una settimana — Cherny utilizza /loop 5m /babysit per una revisione del codice e un rebase automatici in continuo
  • I hook (SessionStart, PreToolUse, ecc.) permettono di iniettare logica deterministica nel ciclo dell’agente, per esempio per instradare le richieste di permesso verso WhatsApp

Parallelizzazione

  • /batch distribuisce il lavoro verso decine, centinaia o addirittura migliaia di agenti in parallelo — utile per migrazioni di codice su larga scala
  • claude -w avvia sessioni parallele in spazi di lavoro git (git worktrees) distinti

Produttività quotidiana

  • /btw permette di porre una domanda rapida mentre un agente lavora, senza interrompere il compito in corso
  • /branch consente di biforcare (fork) una sessione; oppure via CLI: claude --resume <session-id> --fork-session
  • --agent consente di definire agenti personalizzati in .claude/agents/ con un sistema di prompt e strumenti configurabili
  • --add-dir / /add-dir dà a Claude accesso a più cartelle o repository simultaneamente
  • --bare accelera l’avvio SDK fino a 10× (evita il caricamento di CLAUDE.md, dei parametri e dei server MCP)
  • /voice attiva l’immissione vocale (barra spaziatrice in CLI, pulsante dedicato su Desktop, dettatura iOS)
  • Estensione Chrome (beta): Claude Code + Chrome per testare applicazioni web, eseguire il debug dei log della console e automatizzare il browser

🔗 Thread completo di @bcherny


Claude Code: auto mode esteso a Enterprise e API

30 marzo — L’auto mode di Claude Code, lanciato il 24 marzo per gli utenti Pro e Max, è ora disponibile sul piano Enterprise e per gli sviluppatori che accedono all’API. Questa funzionalità permette a Claude di prendere da solo le decisioni di approvazione delle azioni (scrittura di file, comandi bash) invece di richiedere l’input dell’utente a ogni passo.

Per attivarlo in un ambiente Enterprise o tramite API:

claude --enable-auto-mode

L’auto mode si basa su classificatori interni che valutano il rischio di ciascuna azione prima di eseguirla, offrendo un bilanciamento tra la modalità permissiva (--dangerously-skip-permissions) e le approvazioni manuali.

30 marzo — Cowork Dispatch può ora avviare task di codifica con un modello specifico, menzionato direttamente in linguaggio naturale nell’istruzione.

🔗 Tweet di @claudeai


Perplexity lancia il Secure Intelligence Institute

31 marzo — Perplexity lancia il Secure Intelligence Institute (SII), un laboratorio di ricerca dedicato alla sicurezza, alla privacy e alla safety dei sistemi IA avanzati. L’Istituto è diretto dal Dr. Ninghui Li — Samuel D. Conte Professor all’Università Purdue, Fellow ACM e IEEE, ex presidente di ACM SIGSAC —, con partnership accademiche che includono il gruppo di crittografia applicata di Dan Boneh e il Gong Lab di Neil Gong.

Il SII pubblica tre primi lavori:

PubblicazioneTipoDescrizione
BrowseSafeBenchmark open-source14.700+ scenari di attacco reali, 14 categorie di rischio per la navigazione IA
Messa in sicurezza degli agenti NIST/CAISIPolicyRisposta al RFI (Request for Information) sulla messa in sicurezza degli agenti autonomi
Building Security Into CometArchitetturaDifesa in profondità del browser IA Comet

Il SII traduce la sua ricerca in miglioramenti concreti per i sistemi Perplexity e condivide i suoi lavori con l’ecosistema IA.

🔗 Secure Intelligence Institute


Cohere e Ensemble: LLM specializzato nella gestione del ciclo dei ricavi per la sanità

31 marzo — Cohere ed Ensemble annunciano la costruzione del primo grande modello di linguaggio (large language model / LLM) nativo per la gestione del ciclo dei ricavi (Revenue Cycle Management / RCM) dell’industria sanitaria statunitense.

Ensemble offre una soluzione end-to-end per ospedali e gruppi medici, dalla presa degli appuntamenti alla fatturazione finale. Diversamente dalle offerte concorrenti che incapsulano LLM generali in prompt specializzati, questo modello è completamente personalizzato sulla famiglia Command di Cohere.

DominioCapacità
FinanziarioPredizione dei rifiuti prima dell’invio, controllo qualità della fatturazione in continuo
ClinicoGuida alla documentazione al punto di cura, assemblaggio dei fascicoli per le chiamate
AgenticoOrchestrazione multi-step del ciclo dei ricavi

Il modello è stato addestrato sui dati di pre-addestramento di Cohere, sui log operativi di Ensemble, su fonti pubbliche di conoscenza RCM e su annotazioni di esperti di dominio. Un framework di valutazione (benchmark) specifico per il dominio co-sviluppato misurerà le prestazioni rispetto agli LLM generali su compiti RCM reali.

🔗 Blog di Cohere


GitHub Copilot: sviluppo agent-first e integrazione con Slack

31 marzo — Tyler McGoffin, ricercatore senior del team Copilot Applied Science di GitHub, pubblica un resoconto sulla costruzione di uno strumento interno con Copilot come agente di coding principale. Lo strumento automatizza l’analisi delle traiettorie degli agenti IA su benchmark come TerminalBench2 e SWEBench-Pro.

Le pratiche descritte: uso della modalità /plan prima di scrivere codice, creazione di “test di contratto” (contract tests) che solo un umano può modificare, prompt dettagliati invece che succinti, e manutenzione automatica settimanale via /plan Review the code for any missing tests.... La conclusione: le qualità di un buon ingegnere (pianificazione, contesto, comunicazione) sono identiche per collaborare efficacemente con un agente IA.

30 marzo — L’app GitHub per Slack integra ora Copilot per creare issue GitHub direttamente da Slack in linguaggio naturale. Basta menzionare @GitHub in qualsiasi canale e descrivere il lavoro.

FunzionalitàDettaglio
Creazione in linguaggio naturaleDescrizione → issue strutturate (titolo, corpo, assegnatari, label, milestone)
Sotto-issueDecomporre il lavoro in issue padre/figlio da un unico messaggio
Modalità conversazioneIterare sulle issue prima di crearle

31 marzo — GitHub presenta il Copilot SDK che permette di integrare flussi di lavoro agentici (agentic workflows) in applicazioni di terze parti secondo 3 modelli architetturali.

🔗 Blog GitHub - Agent-driven development 🔗 Changelog GitHub - Create issues from Slack


Runway: fondo d’investimento e programma per startup

31 marzo — Runway lancia due iniziative simultanee.

Il Runway Fund è un fondo d’investimento per startup in fase iniziale (early-stage) nell’IA, nei media e nella simulazione del mondo. Impegno iniziale fino a 10 milioni di dollari, con investimenti fino a 500.000 dollari in pre-seed/seed. Focus su tre assi: ricerca IA (modelli del mondo e IA generativa), nuove applicazioni (strato applicativo sugli LLM), e nuovi media e contenuti. Sono già stati effettuati investimenti in Cartesia, LanceDB e Tamarind Bio.

Runway Builders è un programma di accompagnamento per startup dall’amorçage alla serie C che costruiscono prodotti con video generativo e IA conversazionale in tempo reale. I partecipanti ricevono crediti API omaggio, i più alti limiti di rate e accesso a una community privata.

🔗 Runway Fund 🔗 Runway Builders


NVIDIA ed Emerald AI: fabbriche di IA flessibili sulla rete elettrica

31 marzo — NVIDIA ed Emerald AI presentano al CERAWeek un nuovo approccio per le fabbriche di IA (AI factories): considerarle come asset flessibili della rete elettrica piuttosto che come carichi statici. L’architettura si basa su NVIDIA Vera Rubin DSX e sulla piattaforma Conductor di Emerald AI.

Partner energetici annunciati: AES, Constellation, Invenergy, NextEra Energy, Nscale Energy e Vistra. Annunci correlati:

  • Maximo: impianto solare robotico IA da 100 MW operativo a Bellefield con NVIDIA Isaac Sim
  • TerraPower + SoftServe: digital twin NVIDIA Omniverse per ridurre i tempi di progettazione delle centrali nucleari Natrium
  • Adaptive Construction Solutions: programma nazionale di formazione per la costruzione di fabbriche di IA
  • GE Vernova, Schneider Electric, Vertiv: reference designs convalidati per Vera Rubin

Jensen Huang descrive l’energia come lo strato fondamentale di una “torta IA a cinque strati” (five-layer AI cake).

🔗 Blog NVIDIA - AI Factories


In breve

Gemini Live su Gemini 3.1 Flash Live30 marzo — Google ha confermato il roll-out del modello Gemini 3.1 Flash Live nell’app Gemini Live, disponibile per tutti gli utenti. Questa transizione (annunciata il 26 marzo) offre conversazioni audio più naturali e una migliore accuratezza in ambienti rumorosi. 🔗 Tweet di @GeminiApp

Manus: controllo da telefono per Desktop30 marzo — Manus aggiunge la possibilità di controllare l’app Desktop dallo smartphone: avvio di attività, accesso ai file e lancio di flussi di lavoro senza toccare il computer. 🔗 Tweet di @ManusAI

Midjourney V8 teaser29 marzo — David Holz (fondatore di Midjourney) annuncia una versione “radicalmente diversa” di V8, “in arrivo molto presto”. Nessuna data annunciata. 🔗 Tweet di @DavidSHolz

Claude Code v2.1.87 — Correzione di un bug in Cowork Dispatch dove i messaggi non venivano recapitati. 🔗 CHANGELOG di GitHub


Cosa significa

La raccolta fondi di OpenAI a una valutazione di 852 miliardi segna un punto di svolta: a questi livelli il divario fra gli attori principali e il resto del settore si approfondisce strutturalmente. Con 900 milioni di utenti settimanali e un obiettivo di un miliardo, ChatGPT si impone come un’infrastruttura di massa, non solo come prodotto tecnologico.

Il lancio di Qwen3.5-Omni illustra la crescente competizione sui modelli omnimodali. L’Audio-Visual Vibe Coding rappresenta un’evoluzione concreta del coding per intenzione (vibe coding) — il passaggio dal testo alla voce e al video come interfaccia principale verso l’IA generativa.

Dalla parte degli strumenti per sviluppatori, il thread di Boris Cherny rivela che Claude Code ha accumulato funzionalità avanzate (parallelizzazione massiva con /batch, automazione tramite hooks, sessioni distribuite) che sono rimaste poco note per mancanza di documentazione visibile. L’estensione dell’auto mode ai piani Enterprise segue una traiettoria classica: validazione in anteprima, poi rilascio progressivo.

Infine, la creazione del Secure Intelligence Institute da parte di Perplexity e le iniziative di Cohere nel settore sanitario segnalano una tendenza: gli attori di secondo piano cercano di differenziarsi su verticali specializzati (sicurezza IA, sanità regolamentata) piuttosto che competere frontalmente sui modelli generali.


Fonti

Questo documento è stato tradotto dalla versione fr alla lingua it utilizzando il modello gpt-5-mini. Per maggiori informazioni sul processo di traduzione, consultare https://gitlab.com/jls42/ai-powered-markdown-translator