La fine di febbraio 2026 si chiude sotto il segno delle frizioni tra i grandi lab IA e il Dipartimento della Guerra statunitense: OpenAI firma un accordo classificato con il Pentagono con tre linee rosse, mentre Anthropic rifiuta le stesse concessioni e minaccia azioni legali. Sul fronte tecnico, Claude Code v2.1.63 è l’aggiornamento più sostanziale da diverse settimane, e la memoria di Claude apre finalmente agli utenti gratuiti.
Claude Code v2.1.63 : /simplify, HTTP hooks e ondata di correzioni di memoria
28 febbraio 2026 — La versione 2.1.63 di Claude Code è la più completa da diverse settimane. Combina nuove funzionalità per gli sviluppatori e una vasta ondata di correzioni per perdite di memoria — otto in totale.
Nuove funzionalità
| Fonctionnalité | Description |
|---|---|
/simplify et /batch | Due nuovi slash commands bundlati nell’installazione predefinita |
| HTTP hooks | I hook possono ora inviare JSON verso un URL esterno (POST) e ricevere JSON in risposta, invece di eseguire solo comandi shell |
| Project configs & auto memory | Condivise tra tutti i git worktrees dello stesso repository |
ENABLE_CLAUDEAI_MCP_SERVERS=false | Nuova variabile d’ambiente per disattivare i server MCP claude.ai |
/model amélioré | Mostra ora il modello attivo nel menu degli slash commands |
/copy “Always copy full response” | Opzione per copiare direttamente la risposta completa senza passare per il picker |
| VSCode — gestion de sessions | Azioni rename e remove disponibili nella lista delle sessioni |
| MCP OAuth — URL paste fallback | Se il redirect localhost fallisce, l’URL callback può essere incollata manualmente |
L’aggiunta degli HTTP hooks è particolarmente notevole: permette di integrare Claude Code in workflow di automazione esterni (CI, webhooks, sistemi di notifica) senza passare per script shell intermedi.
Correzioni per perdite di memoria (8 fix)
Un’ondata di 8 correzioni mira alle accumulazioni di memoria nelle sessioni lunghe:
- Bridge polling loop, MCP OAuth flow, menu di configurazione hooks, bash command prefix cache
- MCP tool/resource cache, rilevamento IP IDE host, WebSocket listener, rilevamento git root
- Messaggi dei teammates liberati dopo la compattazione della conversazione
- Cache di fetch del server MCP pulite alla disconnessione
- Subagents: payload di progresso alleggeriti durante la compattazione
Per i team che usano Claude Code in modalità orchestratore multi-agenti o in sessioni lunghe, queste correzioni dovrebbero ridurre sensibilmente il consumo di memoria nel lungo periodo.
Altre correzioni
- VSCode: sessioni remote assenti nella cronologia delle conversazioni — corretto
- Race condition nel REPL bridge (messaggi in arrivo interleaved con la cronologia)
/clear: skills nascosti obsoleti che persistevano nella nuova conversazione
OpenAI × Anthropic di fronte al Dipartimento della Guerra — Due approcci, lo stesso rifiuto
OpenAI firma un accordo classificato con il Pentagono
28 febbraio 2026 — OpenAI ha concluso un accordo con il Dipartimento della Guerra (precedentemente Difesa) per distribuire sistemi di IA in ambienti classificati. L’azienda afferma che questo accordo impone più salvaguardie di qualsiasi precedente deployment IA classificato.
OpenAI definisce tre linee rosse non negoziabili:
| Ligne rouge | Description |
|---|---|
| Pas de surveillance de masse | Vietato per monitorare cittadini americani su larga scala |
| Pas d’armes autonomes | Claude non può dirigere armi senza supervisione umana |
| Pas de décisions automatisées à forts enjeux | Supervisione umana obbligatoria su tutte le decisioni critiche |
L’architettura di deployment è solo cloud (no edge/on-premise), con lo stack di sicurezza OpenAI intatto. Ingegneri OpenAI autorizzati alla segretezza saranno presenti in loco. Nessun modello “senza salvaguardie” è fornito.
Il contratto specifica esplicitamente che il sistema di IA non può dirigere armi autonome nei casi in cui la legge, la normativa o la politica del Dipartimento richiedano un controllo umano — conforme alla Directive DoD 3000.09 (25 gennaio 2023).
Posizione su Anthropic: OpenAI dichiara esplicitamente che Anthropic non dovrebbe essere designata come “rischio per la catena di approvvigionamento” e ha comunicato questa posizione al governo. L’azienda ha richiesto che gli stessi termini contrattuali siano proposti a tutti i lab IA.
🔗 Il nostro accordo con il Department of War
Anthropic rifiuta le stesse concessioni e minaccia azioni legali
27 febbraio 2026 — Il Segretario alla Guerra Pete Hegseth ha annunciato su X la sua intenzione di designare Anthropic come rischio nella catena di approvvigionamento (supply chain risk). Anthropic ha risposto lo stesso giorno con una dichiarazione ufficiale, distinta dallo statement di Dario Amodei pubblicato il giorno precedente.
La dichiarazione spiega le ragioni dell’impasse: Anthropic aveva chiesto due eccezioni all’utilizzo di Claude da parte del Dipartimento della Guerra — la sorveglianza domestica di massa degli americani, e le armi completamente autonome. Queste due eccezioni non sono state accettate.
“No amount of intimidation or punishment from the Department of War will change our position on mass domestic surveillance or fully autonomous weapons. We will challenge any supply chain risk designation in court.”
🇮🇹 Nessuna intimidazione né punizione da parte del Dipartimento della Guerra cambierà la nostra posizione sulla sorveglianza domestica di massa o sulle armi totalmente autonome. Contesteremo qualsiasi designazione di rischio nella catena di approvvigionamento davanti ai tribunali. — @AnthropicAI su X
Anthropic precisa l’impatto reale per i suoi clienti:
| Segment | Impact |
|---|---|
| Utilisateurs individuels et API | Accès à Claude totalement inchangé |
| Contractants DoW | Seule l’utilisation dans le cadre des contrats DoW serait affectée — pas les autres usages |
🔗 Statement Anthropic (anthropic.com)
Memory Claude gratuito + importazione da altri provider IA
2 marzo 2026 — Claude annuncia che la funzionalità Memory è ora disponibile per tutti gli utenti, incluso il piano gratuito.
“Memory is now available on the free plan. We’ve also made it easier to import saved memories into Claude. You can export them whenever you want.”
🇮🇹 La memoria è ora disponibile nel piano gratuito. Abbiamo anche reso più semplice l’importazione dei ricordi salvati in Claude. Potete esportarli quando desiderate. — @claudeai su X
La nuova funzionalità di import permette di trasferire il contesto memorizzato da altri assistenti IA verso Claude — ChatGPT, Gemini o altri. L’interfaccia propone un pulsante “Start import” con l’indicazione “Bring relevant context and data from another AI provider to Claude.”
Per iniziare: Settings → Memory.
Qwen 3.5 Small Series — quattro modelli compatti open-weight
2 marzo 2026 — Alibaba/Qwen completa la sua gamma Qwen3.5 con quattro modelli compatti open-weight: Qwen3.5-0.8B, Qwen3.5-2B, Qwen3.5-4B e Qwen3.5-9B.
Questi modelli condividono la stessa architettura dei grandi modelli Qwen3.5 — multimodale nativa, addestramento tramite Reinforcement Learning su scala — in formati adattati a diversi contesti:
| Modèle | Usage cible |
|---|---|
| Qwen3.5-0.8B | Edge devices, latenza ultra-bassa |
| Qwen3.5-2B | Deployments embedded, leggero e veloce |
| Qwen3.5-4B | Base multimodale per agent leggeri |
| Qwen3.5-9B | Compatto ma compete con modelli molto più grandi |
I modelli Base sono pubblicati anche per permettere il fine-tuning da parte della comunità di ricerca. L’annuncio ha raccolto 1,6 milioni di visualizzazioni su X nel primo giorno.
🔗 Qwen 3.5 Small Series su Hugging Face 🔗 Tweet @Alibaba_Qwen
Gemini CLI v0.31.0 : agent browser, Gemini 3.1 Pro, Policy Engine
27 febbraio 2026 — Gemini CLI arriva alla versione 0.31.0 con quattro contributi principali.
| Fonctionnalité | Description |
|---|---|
| Gemini 3.1 Pro Preview | Accesso al modello più recente di Google direttamente dal terminale |
| Agent browser expérimental | Interagisce con pagine web senza configurazione aggiuntiva |
| Policy Engine — projet | Politiche a livello di progetto, wildcard MCP, filtraggio per annotazioni degli strumenti |
| Web fetch direct | Modalità sperimentale con rate limiting integrato |
L’agent browser apre la strada a workflow di automazione web dalla CLI — scraping, test, interazioni con interfacce non-API. È una funzionalità sperimentale, quindi da usare con cautela in ambienti di produzione.
GitHub Copilot : deprecazione di Gemini 3 Pro e dei modelli GPT-5.1
2 marzo 2026 — GitHub ha annunciato la prossima deprecazione di diversi modelli in tutte le esperienze Copilot (Chat, inline edits, modalità ask/agent, code completions).
| Modèle | Date de dépréciation | Alternative suggérée |
|---|---|---|
| Gemini 3 Pro | 26 marzo 2026 | Gemini 3.1 Pro |
| GPT-5.1 | 1 aprile 2026 | GPT-5.3-Codex |
| GPT-5.1-Codex | 1 aprile 2026 | GPT-5.3-Codex |
| GPT-5.1-Codex-Mini | 1 aprile 2026 | GPT-5.3-Codex |
| GPT-5.1-Codex-Max | 1 aprile 2026 | GPT-5.3-Codex |
La deprecazione anticipata di Gemini 3 Pro al 26 marzo (piuttosto che a una data successiva) è giustificata da una deprecazione da parte di Google stesso. Gli admin di Copilot Enterprise devono verificare le loro policy sui modelli nelle impostazioni Copilot e attivare le alternative prima di queste date.
Le metriche Copilot includono inoltre ora la telemetria della modalità Plan — disponibile in JetBrains, Eclipse, Xcode e VS Code Insiders, con rilascio generale per VS Code previsto a breve.
🔗 GitHub Changelog — deprecazione modelli 🔗 Copilot metrics — Plan mode
NVIDIA Nemotron LTM 30B e Blueprints telecom per MWC Barcelona
28 febbraio 2026 — In avvicinamento al Mobile World Congress Barcelona (2–5 marzo 2026), NVIDIA ha lanciato due annunci legati all’IA per le telecomunicazioni.
Nemotron LTM 30B è un modello open source da 30 miliardi di parametri sviluppato con AdaptKey AI, basato su NVIDIA Nemotron 3 e fine-tuned su dati telecom aperti (standard di settore e log sintetici). È la prima volta che NVIDIA pubblica un Large Telco Model open source dedicato al settore.
Due nuovi NVIDIA Blueprints accompagnano questo lancio:
| Blueprint | Partenaire | Usage |
|---|---|---|
| Energy saving RAN | VIAVI TeraVM | Ottimizzazione energetica delle reti radio |
| Network configuration multi-agent | Tech Mahindra | Ragionamento come ingegneri NOC |
Tra i primi adottanti: Cassava Technologies (Africa), NTT DATA (Giappone), Telenor Maritime. I modelli sono pubblicati tramite l’iniziativa GSMA Open Telco AI.
Il rapporto State of AI in Telecom 2026 pubblicato il 27 febbraio conclude che l’automazione della rete è il caso d’uso IA numero 1 per il ritorno sull’investimento nelle telecomunicazioni.
Runway : nuovo co-CEO e quattro nomine nel C-suite
26 febbraio 2026 — Runway ha annunciato cambi nella leadership. Anastasis Germanidis, co-fondatore dell’azienda, diventa co-CEO insieme a Cristóbal Valenzuela.
Quattro nuove nomine nel C-suite:
| Rôle | Personne |
|---|---|
| CTO | Kamil Sindi |
| COO | Michelle Kwon |
| CPO | Anna Chalon |
| CCO | Jamie Umpherson |
Runway descrive queste nomine come la formalizzazione di una struttura già esistente, in linea con la sua visione di “world simulation”.
Brevi
Midjourney : Moodboards e Personalization su Niji V7
26 febbraio — Midjourney ha aggiunto Moodboards e Personalization al modello Niji V7 (specializzato in anime/illustrazione). Le web rooms sono progressivamente rimosse a favore di strumenti di collaborazione in arrivo.
Genspark : Nano Banana 2 gratuito + Workspace 3.0 in arrivo
27 febbraio / 2 marzo — Nano Banana 2 (generatore di immagini IA) è ora disponibile nell’AI Image Agent di Genspark, gratuitamente per tutti gli utenti (illimitato per gli abbonati Plus e Pro). Inoltre, il CEO Eric Jing ha annunciato Genspark Workspace 3.0 per la settimana del 9 marzo — terza versione principale dopo Workspace 1.0 (nov. 2025) e 2.0 (gen. 2026).
🔗 Tweet Genspark Workspace 3.0
Perplexity organizza “Ask”, la sua prima conferenza per sviluppatori
27 febbraio — Perplexity ha annunciato “Ask”, la sua prima conferenza per sviluppatori, prevista per l’11 marzo 2026 a San Francisco. Iscrizione su events.perplexity.ai/ask2026. Il contesto: Perplexity indica che le sue API raggiungono centinaia di milioni di dispositivi Samsung e sono utilizzate da 6 delle 7 “Magnificent Seven”.
Stargate Texas : le prime travi d’acciaio
27 febbraio — Greg Brockman (@gdb) ha condiviso un aggiornamento visivo sul cantiere Stargate nella contea di Milam, Texas: le prime travi d’acciaio sono state posate sul sito, in collaborazione con SoftBank e SBEnergy.
ChatGPT : contatto di fiducia per situazioni di difficoltà
27 febbraio — OpenAI ha annunciato una funzionalità “Trusted Contact” per ChatGPT: gli utenti adulti potranno designare un contatto che riceverà notifiche se l’utente sembra aver bisogno di supporto. Sviluppata con il “Council on Well-Being and AI” e il “Global Physicians Network”. Un tribunale californiano ha parallelamente raggruppato varie cause legate alla salute mentale che coinvolgono ChatGPT in una sola procedura.
🔗 Update salute mentale OpenAI
Google AI : redesign di Flow, Opal, producer.ai, Gemini K-12
27 febbraio — Google ha annunciato diversi elementi nel suo riepilogo settimanale @GoogleAI: Flow by Google (strumento di creazione video) ha ricevuto un redesign importante volto a diventare uno studio creativo IA completo. Opal (Google Labs) introduce un “agent step” per trasformare workflow statici in esperienze interattive. producer.ai è ufficialmente entrato in Google Labs. La formazione Gemini è ora disponibile per i 6 milioni di insegnanti K-12 e dell’istruzione superiore negli Stati Uniti. 🔗 Riepilogo @GoogleAI
Teaser @OpenAIDevs “Soon.”
2 marzo — @OpenAIDevs ha pubblicato un teaser con un’immagine di Windows XP e la sola parola “Soon.” — 179.000 visualizzazioni. Nessun dettaglio aggiuntivo disponibile.
Cosa significa
La contrapposizione OpenAI/Anthropic con il Dipartimento della Guerra rivela più una divergenza di strategia che di valori: entrambi i lab tracciano linee rosse simili (sorveglianza di massa, armi autonome), ma OpenAI ha negoziato un accordo con salvaguardie contrattuali, mentre Anthropic ha rifiutato di firmare senza garanzie accettate. La posizione pubblica di OpenAI a favore di Anthropic complica il quadro — i due lab sembrano coordinati sui principi, anche se le loro traiettorie commerciali divergono.
Claude Code v2.1.63 conferma il rapido ritmo di Anthropic sugli strumenti CLI: gli HTTP hooks ampliano concretamente le integrazioni possibili, e l’ondata di correzioni alla memoria testimonia un serio sforzo di stabilizzazione per i flussi di lavoro a lungo termine. La memoria gratuita, invece, posiziona Claude in competizione diretta con ChatGPT sul grande pubblico.
Dal lato dei modelli, Qwen continua la sua strategia di copertura delle gamme: dopo i grandi modelli MoE a metà febbraio, la serie Small 0.8B–9B mira all’edge e agli agenti leggeri — segmento ancora poco coperto dai lab occidentali in open-weight.
Fonti
- CHANGELOG di Claude Code — GitHub
- Dichiarazione Anthropic — rischio della catena di fornitura
- @AnthropicAI su X
- OpenAI — Il nostro accordo con il Dipartimento della Guerra
- @OpenAI su X
- Memoria gratuita Claude — @claudeai su X
- Serie Qwen 3.5 Small — @Alibaba_Qwen su X
- Qwen 3.5 Small su Hugging Face
- Changelog di Gemini CLI v0.31.0
- GitHub Changelog — deprecazione di Gemini 3 Pro e GPT-5.1
- GitHub Changelog — Copilot metrics ora include la modalità Plan
- NVIDIA Nemotron LTM 30B e Blueprints per le telecomunicazioni
- Runway — nuova leadership
- @midjourney — Niji V7 Moodboards
- Genspark Workspace 3.0 — @genspark_ai su X
- Perplexity Ask — @perplexity_ai su X
- Stargate Texas — @gdb su X
- OpenAI — aggiornamento sul lavoro relativo alla salute mentale di ChatGPT
- @GoogleAI riepilogo settimanale del 27 febbraio
- Teaser @OpenAIDevs “Soon.”
Questo documento è stato tradotto dalla versione fr alla lingua it utilizzando il modello gpt-5-mini. Per maggiori informazioni sul processo di traduzione, consultate https://gitlab.com/jls42/ai-powered-markdown-translator