Cerca

RSP v3.0 da Anthropic, GPT-5.3-Codex disponibile per tutti, Meta firma 6 GW di GPU con AMD

RSP v3.0 da Anthropic, GPT-5.3-Codex disponibile per tutti, Meta firma 6 GW di GPU con AMD

Anthropic rivede in profondità la sua politica di sicurezza con una RSP v3.0 che introduce una Frontier Safety Roadmap (roadmap pubblica per la sicurezza) e Risk Reports trimestrali con revisione esterna. OpenAI termina il periodo di accesso limitato a GPT-5.3-Codex, ora disponibile per tutti gli sviluppatori tramite la Responses API. Meta firma un accordo multi-annuale con AMD per ~6 GW di capacità GPU dedicate ai suoi modelli IA. Qwen lancia quattro modelli MoE di cui un 35B-A3B che supera il proprio modello 235B. Claude Code introduce Remote Control per riprendere una sessione dal telefono.


Anthropic : Responsible Scaling Policy v3.0

24 febbraio — Anthropic pubblica la terza versione della Responsible Scaling Policy (RSP), il quadro volontario che disciplina i rischi catastrofici legati ai suoi modelli.

La RSP originale risale a settembre 2023. In due anni e mezzo i modelli hanno acquisito nuove capacità — navigazione web, esecuzione di codice, uso di computer, azioni autonome multi-step — e ogni nuova capacità ha portato nuovi rischi da affrontare.

Ciò che ha funzionato

La RSP ha spinto Anthropic a sviluppare salvaguardie più robuste, come i classificatori per bloccare contenuti legati ad armi biologiche richiesti per ASL-3. Lo standard ASL-3 è stato attivato a maggio 2025 ed è operativo. OpenAI e Google DeepMind hanno adottato framework simili nei mesi successivi all’annuncio iniziale. Le RSP hanno anche contribuito a informare testi legislativi (SB 53 in California, EU AI Act).

Ciò che non ha funzionato

Le soglie di capacità si sono rivelate più ambigue del previsto — stabilire se un modello abbia “definitivamente” superato una soglia rimane difficile nella pratica. I governi non hanno reagito con la stessa rapidità auspicata, in un contesto politico poco favorevole alla regolamentazione. Alcune esigenze degli ASL più elevati (ASL-4, ASL-5) potrebbero essere impossibili da soddisfare unilateralmente.

Tre cambiamenti chiave in RSP v3.0

La v3.0 distingue ora ciò che Anthropic si impegna a fare indipendentemente dagli altri attori, da una mappatura capacità→mitigazioni che l’intero settore dovrebbe adottare.

Un secondo documento pubblicato in parallelo — la Frontier Safety Roadmap — fissa obiettivi pubblici concreti: lanciare progetti R&D “moonshot” per mettere in sicurezza i pesi dei modelli, sviluppare un red-teaming automatizzato che superi centinaia di partecipanti umani, istituire registri centralizzati di tutte le attività critiche di sviluppo IA.

Infine, Anthropic si impegna a pubblicare dei Risk Reports ogni 3-6 mesi: profilo di sicurezza dei modelli, articolazione capacità/minacce/mitigazioni, e per i modelli più avanzati una revisione da parte di esperti indipendenti con accesso non censurato al rapporto.

“We’re updating our Responsible Scaling Policy to its third version. Since it came into effect in 2023, we’ve learned a lot about the RSP’s benefits and its shortcomings. This update improves the policy, reinforcing what worked and committing us to even greater transparency.”

🇮🇹 Aggiorniamo la nostra Responsible Scaling Policy alla sua terza versione. Dalla sua entrata in vigore nel 2023 abbiamo imparato molto sui suoi punti di forza e sui suoi limiti. Questo aggiornamento migliora la policy rafforzando ciò che ha funzionato e impegnandoci verso ancora maggiore trasparenza.@AnthropicAI su X

🔗 RSP v3.0 (Anthropic)


OpenAI : GPT-5.3-Codex in disponibilità generale

24 febbraio — GPT-5.3-Codex è ora accessibile a tutti gli sviluppatori tramite la Responses API di OpenAI. Il modello era stato lanciato all’inizio di febbraio in accesso limitato; ora passa a disponibilità generale.

GPT-5.3-Codex combina performance di coding di avanguardia e capacità di conoscenza professionale in un unico modello. Secondo i primi integratori, sarebbe “significativamente più potente e 3-4 volte più efficiente in token rispetto a GPT-5.2”. La piattaforma Lovable è stata tra le prime ad adottarlo per i suoi casi d’uso più complessi.

Il modello è disponibile anche tramite OpenRouter per gli sviluppatori che desiderano integrarlo nei loro workflow esistenti senza passare dall’API OpenAI direttamente.

ÉlémentDétail
DisponibilitéResponses API (accesso generale)
Efficacité3-4x più efficiente in token vs GPT-5.2
Accès alternatifOpenRouter

🔗 Tweet @OpenAIDevs


Meta + AMD : accordo multi-annuale per ~6 GW di GPU

24 febbraio — Meta annuncia una partnership multi-annuale con AMD per integrare gli ultimi GPU AMD Instinct nella sua infrastruttura globale.

Il dispiegamento prevede circa 6 GW di capacità data center dedicata, con l’obiettivo di sviluppare modelli di IA all’avanguardia e portare un‘“intelligenza artificiale personale superintelligente” a miliardi di utenti nel mondo.

“Today we’re announcing a multi-year agreement with @AMD to integrate their latest Instinct GPUs into our global infrastructure. With approximately 6GW of planned data center capacity dedicated to this deployment, we’re scaling our compute capacity to accelerate the development of cutting-edge AI models and deliver personal superintelligence to billions around the world.”

🇮🇹 Oggi annunciamo un accordo multi-annuale con @AMD per integrare i loro ultimi GPU Instinct nella nostra infrastruttura globale. Con circa 6 GW di capacità data center pianificata per questo dispiegamento, aumentiamo la nostra capacità di calcolo per accelerare lo sviluppo di modelli IA di punta e portare una superintelligenza personale a miliardi di persone nel mondo.@AIatMeta su X

Questo accordo segna una diversificazione significativa dei fornitori di GPU per Meta, che finora si affidava principalmente a NVIDIA. Un contratto di questa portata — 6 GW, ovvero un’infrastruttura considerevole per una singola partnership — è un segnale forte sulle ambizioni di Meta in termini di compute per i modelli di prossima generazione.

🔗 Tweet @AIatMeta


Qwen 3.5 Medium Series : 4 modelli MoE, “More intelligence, less compute”

24 febbraio — Alibaba Qwen lancia la serie Qwen 3.5 Medium, che comprende quattro modelli ad architettura MoE (Mixture of Experts).

Il risultato più sorprendente è il Qwen3.5-35B-A3B: con soli 3B di parametri attivi (su 35B totali), supera Qwen3-235B-A22B — il gigante precedente della famiglia. L’architettura MoE e un training RL su larga scala permettono questa densità di efficienza.

ModèleParamètres actifsNote
Qwen3.5-FlashContesto 1M tokens, strumenti integrati, hosted
Qwen3.5-35B-A3B3B attivi / 35B totaliSupera Qwen3-235B-A22B
Qwen3.5-122B-A10B10B attivi / 122B totali
Qwen3.5-27B27B

Qwen3.5-Flash è la versione hosted della serie, con un contesto di un milione di token di default e strumenti integrati. I modelli sono disponibili su HuggingFace, ModelScope e Qwen Chat.

🔗 Tweet @Alibaba_Qwen


Claude Code v2.1.51 : Remote Control da mobile

24 febbraio — Claude Code v2.1.51 introduce remote-control, la feature più attesa della release: continuare una sessione locale dal proprio telefono.

Avviata dal terminale, una sessione Claude Code può essere ripresa sull’app mobile Claude Code tramite /remote-control. La funzionalità è disponibile per gli utenti Max in research preview.

Oltre al Remote Control, questa versione apporta diverse migliorie tecniche:

ChangementDétail
Plugin marketplace timeoutGit : 30s → 120s, configurabile via CLAUDE_CODE_PLUGIN_GIT_TIMEOUT_MS
npm registriesSupporto a registry personalizzati e pinning di versione per plugin
BashToolSaltare il login shell di default quando è disponibile lo snapshot
Hooks sécuritéFix : statusLine e fileSuggestion hooks senza accettazione workspace trust
Réduction contexteTool results > 50K chars persistiti su disco (prima 100K)

🔗 CHANGELOG Claude Code


Claude Cowork : marketplace privato di plugin e orchestrazione cross-apps

24 febbraio — Anthropic lancia un aggiornamento importante di Cowork con marketplace privati di plugin per le aziende, nuovi connettori e un’orchestrazione cross-applicazioni.

Gli admin possono ora creare delle marketplace di plugin private per la loro organizzazione: creazione da template o da zero, con Claude che guida la configurazione. Un nuovo menu unificato “Customize” centralizza plugin, skills e connettori (MCP). Gli admin dispongono anche del provisioning per utente, dell’auto-install e di fonti di plugin da repo GitHub privati (in beta privata).

Sul fronte dei connettori, la lista si amplia con Google Workspace (Calendar, Drive, Gmail), Docusign, Apollo, Clay, Outreach, Similarweb, MSCI, LegalZoom, FactSet, WordPress e Harvey. Aziende come Slack, LSEG, S&P Global e Tribe AI hanno inoltre pubblicato dei plugin.

Sono disponibili nuovi template di plugin per dipartimento:

DépartementExemples de workflows
RHLettere di offerta, onboarding, valutazioni delle performance
DesignCritiche UX, audit di accessibilità, piani di ricerca utenti
EngineeringStandup, incident response, checklist di deploy, postmortem
OpérationsDocumentazione dei processi, valutazione fornitori
FinanceAnalisi di mercato, modellazione finanziaria, slide PowerPoint
Investment BankingDocumenti di transazione, analisi comparabili
Private EquityDue diligence, scoring per criteri di investimento

Claude ora può anche orchestrare compiti tra Excel e PowerPoint — analizzare dati in Excel e poi generare una presentazione in PowerPoint, passando il contesto da un add-in all’altro. Questa funzionalità è disponibile in research preview per tutti i piani a pagamento su Mac e Windows.

Infine, il supporto a OpenTelemetry permette agli admin di tracciare l’uso, i costi e l’attività degli strumenti per team.

🔗 Blog Cowork plugins enterprise 🔗 Tweet @claudeai


OpenAI : Codex CLI v0.99.0

24 febbraio — Codex CLI arriva alla versione 0.99.0 con diverse nuove funzionalità.

Il comando /statusline permette ora di personalizzare i metadati mostrati nel footer dell’interfaccia TUI. Le immagini GIF e WebP sono accettate come allegati. L’esecuzione di comandi shell diretti non blocca più un turno in corso — possono essere eseguiti in concorrenza. Lo snapshot dell’ambiente shell e dei file di configurazione rc è ora abilitato.

FeatureDétail
/statuslineConfigurare interattivamente il footer TUI
Images GIF/WebPNuovi formati accettati come allegati
Shell snapshotSnapshot dell’ambiente shell e dei file rc
App-server APIsTurn/steer, feature discovery, resume_agent
Web search controlModi ristretti via requirements.toml (Enterprise)

Una correzione di sicurezza (RUSTSEC-2026-0009) è inclusa.

npm install -g @openai/codex@0.99.0

🔗 Codex Changelog v0.99.0


DeepSeek-V3.2 : versione ufficiale

24 febbraio — DeepSeek annuncia la versione ufficiale di DeepSeek-V3.2, successiva alla versione sperimentale V3.2-Exp di novembre 2025.

Secondo il banner della homepage deepseek.com, la V3.2 rafforza le capacità Agent e integra un ragionamento riflessivo (thinking/reasoning). La versione è disponibile su web, app mobile e API. Il dettaglio tecnico completo è pubblicato su WeChat (canale di annuncio principale di DeepSeek in cinese).

🔗 deepseek.com


Perplexity e Comet : modalità vocale per tutti

24 febbraio — Perplexity distribuisce un aggiornamento significativo della sua modalità vocale su Perplexity e sul suo browser Comet, disponibile per tutti gli utenti — non solo gli abbonati.

La nuova modalità vocale di Comet permette di interrogare l’IA su ciò che è mostrato nello schermo, di navigare tra siti web a voce e di mantenere una conversazione coerente su più tab senza perdere il contesto. Questa persistenza contestuale multi-tab è un avanzamento rispetto agli assistenti vocali classici.

AspectDétail
DisponibilitéTutti gli utenti (non solo abbonati)
PlateformesAndroid, Mac, Windows
Fonctionnalité cléNavigazione vocale multi-tab con contesto persistente

🔗 Tweet @perplexity_ai 🔗 Tweet @comet


Google DeepMind : Music AI Sandbox × Wyclef Jean

24 febbraio — Google DeepMind e YouTube presentano una collaborazione con il produttore e artista Wyclef Jean attorno a Music AI Sandbox.

Music AI Sandbox — alimentato da Lyria 3, il modello di generazione musicale annunciato il 18 febbraio — permette ai musicisti professionisti di sperimentare l’IA come partner creativo. Wyclef Jean ha utilizzato questi strumenti per sviluppare la sua canzone “Back from Abu Dhabi”. Il processo creativo è documentato in un video disponibile su YouTube.

Questa collaborazione fa parte di una serie di progetti avviati da Google DeepMind per esplorare gli usi creativi dell’IA musicale in condizioni reali di studio.

🔗 Tweet @GoogleAI 🔗 Tweet @GoogleDeepMind


Google DeepMind : Robotics Accelerator in Europa

24 febbraio — Google DeepMind annuncia il lancio del suo Robotics Accelerator in Europa, un programma dedicato alle startup nel settore della robotica.

L’obiettivo dichiarato è colmare il divario tra tecnologia e sbocchi commerciali, e accelerare la prossima generazione di agenti fisici. Il programma è pensato per le startup, con accesso alle risorse e all’expertise di Google DeepMind.

🔗 Tweet @GoogleDeepMind


NVIDIA + Red Hat : AI Factory per l’azienda

24 febbraio — Red Hat e NVIDIA annunciano congiuntamente il Red Hat AI Factory with NVIDIA, una soluzione combinata per accelerare l’adozione dell’IA in azienda.

La piattaforma riunisce Red Hat AI Enterprise (orchestrazione e deployment di modelli) con NVIDIA AI Enterprise (strato software ottimizzato per GPU NVIDIA). L’obiettivo è ridurre la complessità operativa e il costo totale di proprietà per le organizzazioni che mettono in produzione applicazioni IA.

🔗 Tweet @NVIDIAAI


Black Forest Labs : Safety Evaluation — 10x meno vulnerabilità

24 febbraio — Black Forest Labs pubblica i risultati di una valutazione terza indipendente dei rischi emergenti per i suoi modelli FLUX.

I risultati mostrano più di 10x meno vulnerabilità rispetto ad altri modelli image open-weight popolari. BFL afferma che alte prestazioni, innovazione aperta e salvaguardie possono andare di pari passo — un approccio di trasparenza raro nell’industria dei modelli di immagini open source.

🔗 Tweet di @bfl_ml


In breve

Claude Code v2.1.52 — Patch mirato pubblicato a seguito della v2.1.51: correzione di un crash dell’estensione VS Code su Windows (command 'claude-vscode.editor.openLast' not found). Nessuna nuova funzionalità.

GitHub Copilot SDK — agente PowerPoint — GitHub condivide una demo (23 febbraio) che mostra come costruire un agente con il Copilot SDK in grado di cercare la documentazione più recente, analizzare le slide esistenti per riprodurne lo stile e generare nuove slide direttamente in PowerPoint. 🔗 Tweet di @github

Runway — Interior Designer — Runway presenta un caso d’uso creativo: trasformare una foto di una stanza in un design d’interni personalizzato tramite una combinazione di Nano Banana Pro, Kling 3.0 e Gen-4.5. Una demo marketing che illustra la piattaforma multi-modello lanciata il 20 febbraio. 🔗 Tweet di @runwayml


Cosa significa

La RSP v3.0 di Anthropic segna una svolta nell’approccio alla sicurezza IA: rendendo pubblici i suoi obiettivi tramite la Frontier Safety Roadmap e impegnandosi in Risk Reports con revisione esterna, Anthropic passa da una politica interna a un meccanismo di responsabilità pubblica. È una pressione soft sull’intera industria — e una risposta implicita alle critiche sull’opacità delle decisioni di distribuzione.

L’accordo Meta+AMD da 6 GW è un campanello d’allarme per NVIDIA: l’unico fornitore di GPU utilizzato finora da Meta comincia a essere concorrente in modo diretto. Per AMD, è una validazione su larga scala delle sue GPU Instinct che faticano ancora a imporsi rispetto alle H100/H200 nei carichi di lavoro di addestramento.

Qwen 3.5 Medium conferma che l’architettura MoE non è più appannaggio dei modelli molto grandi: un 35B-A3B che supera un 235B è una compressione di intelligenza notevole, accessibile a chi non ha l’infrastruttura per far girare i giganti.


Fonti

Questo documento è stato tradotto dalla versione fr alla lingua it utilizzando il modello gpt-5-mini. Per ulteriori informazioni sul processo di traduzione, consultare https://gitlab.com/jls42/ai-powered-markdown-translator