Il 26 febbraio 2026 segna una giornata intensa: Dario Amodei espone pubblicamente le due linee rosse che Anthropic rifiuta di oltrepassare per il Dipartimento della Guerra americano, Perplexity ottiene un accesso a livello OS su 800 milioni di dispositivi Samsung, GitHub estende Claude e Codex a Copilot Business e Pro, e Eli Lilly inaugura LillyPod, la più potente AI factory farmaceutica mai costruita.
Anthropic di fronte al Dipartimento della Guerra
26 febbraio — Dario Amodei, CEO di Anthropic, pubblica una dichiarazione pubblica sulle discussioni in corso con il Dipartimento della Guerra (DoW) americano. Il testo espone due linee rosse che Anthropic rifiuta di oltrepassare, anche sotto pressione governativa.
Anthropic è il primo fornitore di modelli frontier ad aver distribuito i propri modelli nelle reti classificate del governo americano, nei laboratori nazionali e per clienti di sicurezza nazionale. Claude è utilizzato per l’analisi dell’intelligence, la modellizzazione, la pianificazione operativa e le operazioni cyber.
I due casi d’uso rifiutati:
| Caso d’uso | Posizione di Anthropic |
|---|---|
| Sorveglianza domestica di massa | Incompatibile con i valori democratici. L’IA permette di assemblare dati sparsi in un ritratto completo di qualsiasi persona, su larga scala. |
| Armi completamente autonome | I modelli attuali non sono sufficientemente affidabili. Nessuna supervisione umana = rischi inaccettabili per i soldati e i civili. |
Il DoW avrebbe richiesto che Anthropic accettasse “qualsiasi uso legale” e rimuovesse queste salvaguardie. In caso di rifiuto, il DoW minaccerebbe di designare Anthropic come “rischio di catena di fornitura” — etichetta mai applicata a un’azienda americana, solitamente riservata agli avversari. Amodei nota l’ironia: una minaccia li qualifica come rischio per la sicurezza, l’altra li considera essenziali per la sicurezza nazionale.
Anthropic dichiara di restare disponibile per una transizione fluida se il DoW scegliesse un altro fornitore.
🔗 Dichiarazione di Dario Amodei sulle nostre discussioni con il Dipartimento della Guerra
Perplexity integrato nel Samsung Galaxy S26
26 febbraio — Perplexity annuncia la sua integrazione nel Samsung Galaxy S26 come IA di sistema, con la wake word “Hey Plex”. È la prima volta che Samsung concede un accesso OS-level a un’azienda terza non-Google e non-Samsung.
Cosa permette l’integrazione:
| Funzionalità | Dettaglio |
|---|---|
| Parola di attivazione | ”Hey Plex” + pulsante laterale (pressione prolungata) |
| Accesso nativo | Notes, Calendar, Gallery, Clock, Reminders |
| Bixby | Usa le API Perplexity per la ricerca e il ragionamento in tempo reale |
| Samsung Internet | Integrazione delle API Perplexity con capacità di agente browser |
| Motore di ricerca | Disponibile come opzione predefinita in Samsung Browser |
Samsung ha progettato l’S26 attorno a un modello multi-agente. I suoi dati interni indicano che 8 utenti su 10 usano già più di due agenti IA al giorno. Perplexity è preinstallato su tutti gli S26, senza download né configurazione. Con 800 milioni di dispositivi Samsung attivi nel 2026, l’accordo rappresenta un accesso hardware massiccio per Perplexity.
🔗 Blog Perplexity — Samsung Partnership
Claude e Codex GA per Copilot Business e Pro
26 febbraio — GitHub estende l’accesso agli agenti Claude (Anthropic) e OpenAI Codex agli abbonamenti Copilot Business e Copilot Pro. Finora riservato a Copilot Enterprise e Pro+, questo accesso è ora ampliato a una base di utenti molto più ampia.
I tre agenti (Claude, Codex, Copilot) funzionano su una piattaforma unificata con governance centralizzata, contesto condiviso e memoria comune. Sono accessibili da github.com, GitHub Mobile e VS Code, senza abbonamento aggiuntivo richiesto.
| Funzionalità | Dettaglio |
|---|---|
| Agenti disponibili | Claude (Anthropic), OpenAI Codex, GitHub Copilot |
| Superfici | github.com, GitHub Mobile, VS Code |
| Governance | Agent Control Plane (GA) — audit logs, politiche centralizzate |
| Abbonamento richiesto | Nessuno aggiuntivo (incluso in Business/Pro) |
| Sessioni | Asincrone con log dettagliati |
Attivazione per Copilot Business: un admin deve attivare gli agenti a livello aziendale (Enterprise AI Controls → Agents → Partner Agents) E a livello organizzazione (Settings → Copilot → Coding agent → Partner Agents).
Ogni sessione agente consuma una “premium request” durante il periodo di anteprima pubblica. Le sessioni si usano dalla scheda Agents di un repository, assegnando un issue a @claude o @codex, oppure menzionandoli nei commenti delle PR.
🔗 Claude and Codex now available for Copilot Business & Pro users
NVIDIA + Eli Lilly — LillyPod DGX SuperPOD
26 febbraio — Eli Lilly inaugura LillyPod, il primo NVIDIA DGX SuperPOD dotato di sistemi DGX B300, costruito in quattro mesi. È la più potente AI factory interamente posseduta e operata da una società farmaceutica.
| Metrica | Valore |
|---|---|
| GPUs | 1 016 NVIDIA Blackwell Ultra (DGX B300) |
| Prestazioni | >9 000 petaflops IA |
| Tempo di costruzione | 4 mesi |
| Connessioni di rete | ~5 000 |
LillyPod supporta l’addestramento di modelli di diffusione per proteine, graph neural networks per piccole molecole e modelli di foundation in genomica. L’architettura si basa su NVIDIA DGX SuperPOD con networking Spectrum-X Ethernet e NVIDIA Mission Control per l’orchestrazione.
Codex CLI v0.106.0
26 febbraio — OpenAI pubblica Codex CLI v0.106.0, una release stabile con diversi aggiunti notevoli.
| Funzionalità | Dettaglio |
|---|---|
| Script d’installazione diretto | Nuovo script per macOS e Linux, distribuito come asset GitHub Release |
| App-server v2 Realtime API | Thread-scoped realtime endpoints e thread/unsubscribe flow |
| js_repl promosso a /experimental | Verifiche di compatibilità Node (minimo 22.22.0) all’avvio |
| request_user_input in modalità Default | Non più disponibile solo in modalità Plan |
| gpt-5.3-codex visibile nella CLI | Modello ora mostrato nella lista per gli utenti API |
| Memoria diff-based | Forgetting basato sui diff e selezione per uso |
Tra le correzioni di bug: una fix di sicurezza sul percorso d’esecuzione zsh-fork che poteva eludere i wrapper sandbox, e un limite a 1 milione di caratteri sugli input TUI/app-server per evitare crash su incolla massivo.
Claude Code v2.1.59 + v2.1.61
26 febbraio — Claude Code pubblica le versioni v2.1.59 e v2.1.61 con funzionalità degne di nota.
v2.1.59 — Nuove funzionalità:
| Funzionalità | Descrizione |
|---|---|
| Auto-memory | Claude salva automaticamente il contesto utile in memoria persistente. Gestibile tramite /memory |
Comando /copy | Picker interattivo quando sono presenti blocchi di codice — permette di selezionare blocchi individuali o la risposta completa |
| Suggerimenti “always allow” | Migliori suggerimenti per comandi bash composti (es: cd /tmp && git fetch && git push) |
| Ordine dei task brevi | Miglioramento della schedulazione nelle sessioni multi-agente |
| Fix MCP OAuth | Correzione di race condition durante l’esecuzione di più istanze di Claude Code simultaneamente |
v2.1.61: correzione di scritture concorrenti che corrompevano il file di configurazione su Windows.
Novità Anthropic: Open Source e Connectors
26 febbraio — Anthropic annuncia due aperture complementari:
Claude for Open Source — I manutentori e i contributori principali di progetti open source popolari ricevono 6 mesi di accesso gratuito al piano Claude Max 20x. Boris Cherny (@bcherny), responsabile di Claude Code, sottolinea che “molto di ciò che rende Claude Code eccellente deriva dai feedback degli sviluppatori OSS.”
Connectors sul piano gratuito — I Connectors di Claude sono ora accessibili agli utenti del piano gratuito. Il catalogo conta oltre 150 connector nelle categorie coding, data, design, finance, sales e altre.
🔗 Tweet Lydia Hallie — Claude for Open Source 🔗 claude.com/connectors
GitHub Enterprise: governance IA in GA
26 febbraio — GitHub annuncia la disponibilità generale (GA) di Enterprise AI Controls e dell’Agent Control Plane, la suite di governance IA per gli amministratori GitHub Enterprise.
Le funzionalità GA includono: ricerca e filtraggio dell’attività delle sessioni degli agenti (inclusi agenti di terze parti), rimozione del limite di 1 000 record per le sessioni delle ultime 24 ore, API per applicare definizioni di agenti personalizzati a livello aziendale.
Rimane in anteprima pubblica: la gestione delle allowlists MCP a livello aziendale.
🔗 Enterprise AI Controls & agent control plane now generally available
GitHub Mobile: selettore di modello per Copilot
26 febbraio — GitHub Mobile lancia un selettore di modello per le sessioni agente Copilot. L’utente può ora scegliere tra Auto, Claude (Anthropic), OpenAI Codex e altri modelli all’avvio di una sessione.
Codex + Figma: workflow code→design→code
26 febbraio — OpenAI Developers annuncia un’integrazione tra Codex e Figma che permette un workflow bidirezionale code→design→code. La funzionalità consente di generare file di design direttamente dal codice, collaborare in Figma e poi implementare gli aggiornamenti in Codex senza interrompere il flusso di lavoro.
pplx-embed: embeddings SOTA di Perplexity
26 febbraio — Perplexity lancia due famiglie di modelli di embedding testuale: pplx-embed-v1 e pplx-embed-context-v1, disponibili nelle dimensioni 0,6B e 4B parametri. I modelli sono accessibili tramite l’API Perplexity e su Hugging Face con licenza MIT.
| Benchmark | Score | Riferimento |
|---|---|---|
| ConTEB (contextual retrieval) | 81,96% | Nuovo SOTA (vs voyage-context-3 79,45%) |
| MTEB Multilingual v2 (4B INT8) | 69,66% nDCG@10 | vs Gemini-embedding-001 67,71% |
| PPLXQuery2Query Recall@10 | 73,5% | vs Qwen3-Embedding-4B 67,9% (+5,6 pts) |
I modelli supportano la quantizzazione INT8 (4x meno spazio rispetto a FP32) e BINARY (32x meno). Nessun instruction prefix richiesto.
🔗 Article de recherche Perplexity
Gemini CLI v0.30.0 e Qwen 3.5 FP8
25 febbraio — Gemini CLI pubblica la versione v0.30.0 con tre assi di cambiamento: l’introduzione di un SDK iniziale (@google/gemini-cli-sdk), un nuovo Policy Engine che sostituisce --allowed-tools con un sistema di politiche granulari, e miglioramenti dell’interfaccia (temi Solarized, miglior supporto Vim, sospensione Ctrl-Z).
25 febbraio — Alibaba pubblica i pesi quantizzati FP8 della serie Qwen 3.5 Medium (35B-A3B, 122B-A10B, 27B), disponibili su Hugging Face e ModelScope con supporto nativo vLLM e SGLang fin dal day one. La quantizzazione FP8 riduce significativamente l’impronta di memoria preservando le prestazioni.
In breve
-
Responses API campo
phase(24 feb) — OpenAI aggiunge il campophasealla Responses API, permettendo di etichettare i messaggi assistant comecommentaryofinal_answerper differenziare le fasi di ragionamento intermedio dalla risposta finale. 🔗 Changelog OpenAI API -
GPT-5.3-Codex GA in Copilot Chat (25 feb) — Disponibile su github.com, GitHub Mobile, VS Code e Visual Studio per tutti gli abbonamenti Copilot a pagamento. Gli amministratori Business/Enterprise devono attivare la politica nelle impostazioni. 🔗 Changelog GitHub
-
NVIDIA AI Cybersecurity OT/ICS (23 feb) — Partnership con Akamai, Forescout, Palo Alto Networks, Siemens e Xage Security per implementare l’IA nella cybersecurity delle tecnologie operative e dei sistemi di controllo industriale. 🔗 Blog NVIDIA
Cosa significa
La dichiarazione di Dario Amodei sul Dipartimento della Guerra è senza precedenti nell’industria IA. È la prima volta che un CEO di un lab frontier documenta pubblicamente una pressione governativa per rimuovere salvaguardie etiche e rifiuta esplicitamente. L’etichetta “rischio di catena di fornitura” menzionata dal DoW è solitamente riservata alle aziende cinesi — la sua possibile applicazione a un’azienda americana sarebbe un’escalation senza precedenti.
Sul piano commerciale, la giornata del 26 febbraio illustra la concentrazione attorno a poche piattaforme dominanti. GitHub unifica Claude, Codex e Copilot su una sola superficie con governance centralizzata — è il modello “agent marketplace” che prende forma concretamente. L’integrazione di Perplexity su Samsung segue la stessa logica: meno nuovi dispositivi da conquistare, più integrazioni profonde nelle piattaforme esistenti.
LillyPod di Eli Lilly segnala che l’IA in ambito pharma scala a livello industriale: costruire la propria AI factory in 4 mesi con 1 016 GPUs Blackwell Ultra indica che le grandi aziende non aspettano più il cloud per i carichi di lavoro più sensibili.
Fonti - Dichiarazione di Dario Amodei — Dipartimento della Guerra
- Tweet di @lydiahallie — Claude per l’open source
- Tweet di @claudeai — Piano gratuito dei connettori
- CHANGELOG di Claude Code
- Claude e Codex GA — Copilot Business e Pro
- Enterprise AI Controls — Disponibilità generale
- Selettore di modelli per GitHub Mobile
- Perplexity + Samsung Galaxy S26
- Articolo di ricerca su pplx-embed
- Rilascio Codex CLI v0.106.0
- Tweet di @OpenAIDevs — Codex + Figma
- Blog di NVIDIA LillyPod
- NVIDIA — Cybersecurity AI per OT
- Changelog di Gemini CLI
- Tweet di @Alibaba_Qwen — Qwen3.5 FP8
- Changelog di OpenAI Responses API
- GPT-5.3-Codex GA su GitHub
Questo documento è stato tradotto dalla versione fr alla lingua it utilizzando il modello gpt-5-mini. Per ulteriori informazioni sul processo di traduzione, consultare https://gitlab.com/jls42/ai-powered-markdown-translator