Cerca

Anthropic di fronte al Dipartimento della Guerra, Perplexity integrato nel Galaxy S26, Claude e Codex GA su Copilot

Anthropic di fronte al Dipartimento della Guerra, Perplexity integrato nel Galaxy S26, Claude e Codex GA su Copilot

Il 26 febbraio 2026 segna una giornata intensa: Dario Amodei espone pubblicamente le due linee rosse che Anthropic rifiuta di oltrepassare per il Dipartimento della Guerra americano, Perplexity ottiene un accesso a livello OS su 800 milioni di dispositivi Samsung, GitHub estende Claude e Codex a Copilot Business e Pro, e Eli Lilly inaugura LillyPod, la più potente AI factory farmaceutica mai costruita.


Anthropic di fronte al Dipartimento della Guerra

26 febbraio — Dario Amodei, CEO di Anthropic, pubblica una dichiarazione pubblica sulle discussioni in corso con il Dipartimento della Guerra (DoW) americano. Il testo espone due linee rosse che Anthropic rifiuta di oltrepassare, anche sotto pressione governativa.

Anthropic è il primo fornitore di modelli frontier ad aver distribuito i propri modelli nelle reti classificate del governo americano, nei laboratori nazionali e per clienti di sicurezza nazionale. Claude è utilizzato per l’analisi dell’intelligence, la modellizzazione, la pianificazione operativa e le operazioni cyber.

I due casi d’uso rifiutati:

Caso d’usoPosizione di Anthropic
Sorveglianza domestica di massaIncompatibile con i valori democratici. L’IA permette di assemblare dati sparsi in un ritratto completo di qualsiasi persona, su larga scala.
Armi completamente autonomeI modelli attuali non sono sufficientemente affidabili. Nessuna supervisione umana = rischi inaccettabili per i soldati e i civili.

Il DoW avrebbe richiesto che Anthropic accettasse “qualsiasi uso legale” e rimuovesse queste salvaguardie. In caso di rifiuto, il DoW minaccerebbe di designare Anthropic come “rischio di catena di fornitura” — etichetta mai applicata a un’azienda americana, solitamente riservata agli avversari. Amodei nota l’ironia: una minaccia li qualifica come rischio per la sicurezza, l’altra li considera essenziali per la sicurezza nazionale.

Anthropic dichiara di restare disponibile per una transizione fluida se il DoW scegliesse un altro fornitore.

🔗 Dichiarazione di Dario Amodei sulle nostre discussioni con il Dipartimento della Guerra


Perplexity integrato nel Samsung Galaxy S26

26 febbraio — Perplexity annuncia la sua integrazione nel Samsung Galaxy S26 come IA di sistema, con la wake word “Hey Plex”. È la prima volta che Samsung concede un accesso OS-level a un’azienda terza non-Google e non-Samsung.

Cosa permette l’integrazione:

FunzionalitàDettaglio
Parola di attivazione”Hey Plex” + pulsante laterale (pressione prolungata)
Accesso nativoNotes, Calendar, Gallery, Clock, Reminders
BixbyUsa le API Perplexity per la ricerca e il ragionamento in tempo reale
Samsung InternetIntegrazione delle API Perplexity con capacità di agente browser
Motore di ricercaDisponibile come opzione predefinita in Samsung Browser

Samsung ha progettato l’S26 attorno a un modello multi-agente. I suoi dati interni indicano che 8 utenti su 10 usano già più di due agenti IA al giorno. Perplexity è preinstallato su tutti gli S26, senza download né configurazione. Con 800 milioni di dispositivi Samsung attivi nel 2026, l’accordo rappresenta un accesso hardware massiccio per Perplexity.

🔗 Blog Perplexity — Samsung Partnership


Claude e Codex GA per Copilot Business e Pro

26 febbraio — GitHub estende l’accesso agli agenti Claude (Anthropic) e OpenAI Codex agli abbonamenti Copilot Business e Copilot Pro. Finora riservato a Copilot Enterprise e Pro+, questo accesso è ora ampliato a una base di utenti molto più ampia.

I tre agenti (Claude, Codex, Copilot) funzionano su una piattaforma unificata con governance centralizzata, contesto condiviso e memoria comune. Sono accessibili da github.com, GitHub Mobile e VS Code, senza abbonamento aggiuntivo richiesto.

FunzionalitàDettaglio
Agenti disponibiliClaude (Anthropic), OpenAI Codex, GitHub Copilot
Superficigithub.com, GitHub Mobile, VS Code
GovernanceAgent Control Plane (GA) — audit logs, politiche centralizzate
Abbonamento richiestoNessuno aggiuntivo (incluso in Business/Pro)
SessioniAsincrone con log dettagliati

Attivazione per Copilot Business: un admin deve attivare gli agenti a livello aziendale (Enterprise AI Controls → Agents → Partner Agents) E a livello organizzazione (Settings → Copilot → Coding agent → Partner Agents).

Ogni sessione agente consuma una “premium request” durante il periodo di anteprima pubblica. Le sessioni si usano dalla scheda Agents di un repository, assegnando un issue a @claude o @codex, oppure menzionandoli nei commenti delle PR.

🔗 Claude and Codex now available for Copilot Business & Pro users


NVIDIA + Eli Lilly — LillyPod DGX SuperPOD

26 febbraio — Eli Lilly inaugura LillyPod, il primo NVIDIA DGX SuperPOD dotato di sistemi DGX B300, costruito in quattro mesi. È la più potente AI factory interamente posseduta e operata da una società farmaceutica.

MetricaValore
GPUs1 016 NVIDIA Blackwell Ultra (DGX B300)
Prestazioni>9 000 petaflops IA
Tempo di costruzione4 mesi
Connessioni di rete~5 000

LillyPod supporta l’addestramento di modelli di diffusione per proteine, graph neural networks per piccole molecole e modelli di foundation in genomica. L’architettura si basa su NVIDIA DGX SuperPOD con networking Spectrum-X Ethernet e NVIDIA Mission Control per l’orchestrazione.

🔗 Blog NVIDIA — LillyPod


Codex CLI v0.106.0

26 febbraio — OpenAI pubblica Codex CLI v0.106.0, una release stabile con diversi aggiunti notevoli.

FunzionalitàDettaglio
Script d’installazione direttoNuovo script per macOS e Linux, distribuito come asset GitHub Release
App-server v2 Realtime APIThread-scoped realtime endpoints e thread/unsubscribe flow
js_repl promosso a /experimentalVerifiche di compatibilità Node (minimo 22.22.0) all’avvio
request_user_input in modalità DefaultNon più disponibile solo in modalità Plan
gpt-5.3-codex visibile nella CLIModello ora mostrato nella lista per gli utenti API
Memoria diff-basedForgetting basato sui diff e selezione per uso

Tra le correzioni di bug: una fix di sicurezza sul percorso d’esecuzione zsh-fork che poteva eludere i wrapper sandbox, e un limite a 1 milione di caratteri sugli input TUI/app-server per evitare crash su incolla massivo.

🔗 Release v0.106.0


Claude Code v2.1.59 + v2.1.61

26 febbraio — Claude Code pubblica le versioni v2.1.59 e v2.1.61 con funzionalità degne di nota.

v2.1.59 — Nuove funzionalità:

FunzionalitàDescrizione
Auto-memoryClaude salva automaticamente il contesto utile in memoria persistente. Gestibile tramite /memory
Comando /copyPicker interattivo quando sono presenti blocchi di codice — permette di selezionare blocchi individuali o la risposta completa
Suggerimenti “always allow”Migliori suggerimenti per comandi bash composti (es: cd /tmp && git fetch && git push)
Ordine dei task breviMiglioramento della schedulazione nelle sessioni multi-agente
Fix MCP OAuthCorrezione di race condition durante l’esecuzione di più istanze di Claude Code simultaneamente

v2.1.61: correzione di scritture concorrenti che corrompevano il file di configurazione su Windows.

🔗 CHANGELOG Claude Code


Novità Anthropic: Open Source e Connectors

26 febbraio — Anthropic annuncia due aperture complementari:

Claude for Open Source — I manutentori e i contributori principali di progetti open source popolari ricevono 6 mesi di accesso gratuito al piano Claude Max 20x. Boris Cherny (@bcherny), responsabile di Claude Code, sottolinea che “molto di ciò che rende Claude Code eccellente deriva dai feedback degli sviluppatori OSS.”

Connectors sul piano gratuito — I Connectors di Claude sono ora accessibili agli utenti del piano gratuito. Il catalogo conta oltre 150 connector nelle categorie coding, data, design, finance, sales e altre.

🔗 Tweet Lydia Hallie — Claude for Open Source 🔗 claude.com/connectors


GitHub Enterprise: governance IA in GA

26 febbraio — GitHub annuncia la disponibilità generale (GA) di Enterprise AI Controls e dell’Agent Control Plane, la suite di governance IA per gli amministratori GitHub Enterprise.

Le funzionalità GA includono: ricerca e filtraggio dell’attività delle sessioni degli agenti (inclusi agenti di terze parti), rimozione del limite di 1 000 record per le sessioni delle ultime 24 ore, API per applicare definizioni di agenti personalizzati a livello aziendale.

Rimane in anteprima pubblica: la gestione delle allowlists MCP a livello aziendale.

🔗 Enterprise AI Controls & agent control plane now generally available


GitHub Mobile: selettore di modello per Copilot

26 febbraio — GitHub Mobile lancia un selettore di modello per le sessioni agente Copilot. L’utente può ora scegliere tra Auto, Claude (Anthropic), OpenAI Codex e altri modelli all’avvio di una sessione.

🔗 Tweet @github


Codex + Figma: workflow code→design→code

26 febbraio — OpenAI Developers annuncia un’integrazione tra Codex e Figma che permette un workflow bidirezionale code→design→code. La funzionalità consente di generare file di design direttamente dal codice, collaborare in Figma e poi implementare gli aggiornamenti in Codex senza interrompere il flusso di lavoro.

🔗 Tweet @OpenAIDevs


pplx-embed: embeddings SOTA di Perplexity

26 febbraio — Perplexity lancia due famiglie di modelli di embedding testuale: pplx-embed-v1 e pplx-embed-context-v1, disponibili nelle dimensioni 0,6B e 4B parametri. I modelli sono accessibili tramite l’API Perplexity e su Hugging Face con licenza MIT.

BenchmarkScoreRiferimento
ConTEB (contextual retrieval)81,96%Nuovo SOTA (vs voyage-context-3 79,45%)
MTEB Multilingual v2 (4B INT8)69,66% nDCG@10vs Gemini-embedding-001 67,71%
PPLXQuery2Query Recall@1073,5%vs Qwen3-Embedding-4B 67,9% (+5,6 pts)

I modelli supportano la quantizzazione INT8 (4x meno spazio rispetto a FP32) e BINARY (32x meno). Nessun instruction prefix richiesto.

🔗 Article de recherche Perplexity


Gemini CLI v0.30.0 e Qwen 3.5 FP8

25 febbraio — Gemini CLI pubblica la versione v0.30.0 con tre assi di cambiamento: l’introduzione di un SDK iniziale (@google/gemini-cli-sdk), un nuovo Policy Engine che sostituisce --allowed-tools con un sistema di politiche granulari, e miglioramenti dell’interfaccia (temi Solarized, miglior supporto Vim, sospensione Ctrl-Z).

🔗 Gemini CLI Changelog

25 febbraio — Alibaba pubblica i pesi quantizzati FP8 della serie Qwen 3.5 Medium (35B-A3B, 122B-A10B, 27B), disponibili su Hugging Face e ModelScope con supporto nativo vLLM e SGLang fin dal day one. La quantizzazione FP8 riduce significativamente l’impronta di memoria preservando le prestazioni.

🔗 Tweet @Alibaba_Qwen


In breve

  • Responses API campo phase (24 feb) — OpenAI aggiunge il campo phase alla Responses API, permettendo di etichettare i messaggi assistant come commentary o final_answer per differenziare le fasi di ragionamento intermedio dalla risposta finale. 🔗 Changelog OpenAI API

  • GPT-5.3-Codex GA in Copilot Chat (25 feb) — Disponibile su github.com, GitHub Mobile, VS Code e Visual Studio per tutti gli abbonamenti Copilot a pagamento. Gli amministratori Business/Enterprise devono attivare la politica nelle impostazioni. 🔗 Changelog GitHub

  • NVIDIA AI Cybersecurity OT/ICS (23 feb) — Partnership con Akamai, Forescout, Palo Alto Networks, Siemens e Xage Security per implementare l’IA nella cybersecurity delle tecnologie operative e dei sistemi di controllo industriale. 🔗 Blog NVIDIA


Cosa significa

La dichiarazione di Dario Amodei sul Dipartimento della Guerra è senza precedenti nell’industria IA. È la prima volta che un CEO di un lab frontier documenta pubblicamente una pressione governativa per rimuovere salvaguardie etiche e rifiuta esplicitamente. L’etichetta “rischio di catena di fornitura” menzionata dal DoW è solitamente riservata alle aziende cinesi — la sua possibile applicazione a un’azienda americana sarebbe un’escalation senza precedenti.

Sul piano commerciale, la giornata del 26 febbraio illustra la concentrazione attorno a poche piattaforme dominanti. GitHub unifica Claude, Codex e Copilot su una sola superficie con governance centralizzata — è il modello “agent marketplace” che prende forma concretamente. L’integrazione di Perplexity su Samsung segue la stessa logica: meno nuovi dispositivi da conquistare, più integrazioni profonde nelle piattaforme esistenti.

LillyPod di Eli Lilly segnala che l’IA in ambito pharma scala a livello industriale: costruire la propria AI factory in 4 mesi con 1 016 GPUs Blackwell Ultra indica che le grandi aziende non aspettano più il cloud per i carichi di lavoro più sensibili.


Fonti - Dichiarazione di Dario Amodei — Dipartimento della Guerra

Questo documento è stato tradotto dalla versione fr alla lingua it utilizzando il modello gpt-5-mini. Per ulteriori informazioni sul processo di traduzione, consultare https://gitlab.com/jls42/ai-powered-markdown-translator