La fin du mois de février 2026 s’achève sous le signe des frictions entre les grands labs IA et le Département de la Guerre américain : OpenAI signe un accord classifié avec le Pentagone avec trois lignes rouges, tandis qu’Anthropic refuse les mêmes concessions et menace d’aller en justice. Sur le front technique, Claude Code v2.1.63 est la mise à jour la plus substantielle depuis plusieurs semaines, et la mémoire Claude ouvre enfin ses portes aux utilisateurs gratuits.
Claude Code v2.1.63 : /simplify, HTTP hooks et vague de corrections mémoire
28 février 2026 — La version 2.1.63 de Claude Code est la plus complète depuis plusieurs semaines. Elle combine de nouvelles fonctionnalités pour les développeurs et une vague majeure de corrections de fuites mémoire — huit au total.
Nouvelles fonctionnalités
| Fonctionnalité | Description |
|---|---|
/simplify et /batch | Deux nouveaux slash commands bundlés dans l’installation par défaut |
| HTTP hooks | Les hooks peuvent désormais envoyer du JSON vers une URL externe (POST) et recevoir du JSON en retour, au lieu d’exécuter uniquement une commande shell |
| Project configs & auto memory | Partagées entre tous les git worktrees du même repository |
ENABLE_CLAUDEAI_MCP_SERVERS=false | Nouvelle variable d’environnement pour désactiver les serveurs MCP claude.ai |
/model amélioré | Affiche maintenant le modèle actif dans le menu des slash commands |
/copy “Always copy full response” | Option pour copier directement la réponse complète sans passer par le picker |
| VSCode — gestion de sessions | Actions rename et remove disponibles dans la liste des sessions |
| MCP OAuth — URL paste fallback | Si le redirect localhost échoue, l’URL callback peut être collée manuellement |
L’ajout des HTTP hooks est particulièrement notable : il permet d’intégrer Claude Code dans des workflows d’automatisation externes (CI, webhooks, systèmes de notification) sans passer par des scripts shell intermédiaires.
Corrections de fuites mémoire (8 fixes)
Une vague de 8 corrections cible les accumulations mémoire dans les sessions longues :
- Bridge polling loop, MCP OAuth flow, menu de configuration hooks, bash command prefix cache
- MCP tool/resource cache, détection IP IDE host, WebSocket listener, détection git root
- Messages de teammates libérés après compaction de conversation
- MCP server fetch caches nettoyés sur déconnexion
- Subagents : payloads de progression allégés pendant la compaction
Pour les équipes utilisant Claude Code en mode orchestrateur multi-agents ou en sessions longues, ces corrections devraient réduire sensiblement la consommation mémoire sur le long terme.
Autres corrections
- VSCode : sessions distantes absentes de l’historique de conversation — corrigé
- Race condition dans le REPL bridge (messages entrants interleaved avec l’historique)
/clear: skills cachés périmés qui persistaient dans la nouvelle conversation
OpenAI × Anthropic face au Département de la Guerre — Deux approches, un même refus
OpenAI signe un accord classifié avec le Pentagone
28 février 2026 — OpenAI a conclu un accord avec le Département de la Guerre (anciennement Défense) pour déployer des systèmes d’IA dans des environnements classifiés. La société affirme que cet accord impose plus de garde-fous que tout déploiement IA classifié précédent.
OpenAI définit trois lignes rouges non négociables :
| Ligne rouge | Description |
|---|---|
| Pas de surveillance de masse | Interdit pour surveiller des citoyens américains à grande échelle |
| Pas d’armes autonomes | Claude ne peut pas diriger des armes sans supervision humaine |
| Pas de décisions automatisées à forts enjeux | Supervision humaine obligatoire sur toutes les décisions critiques |
L’architecture de déploiement est cloud uniquement (pas d’edge/on-premise), avec la pile de sécurité OpenAI intacte. Des ingénieurs OpenAI habilités secret-défense seront présents sur place. Aucun modèle “sans garde-fous” n’est fourni.
Le contrat stipule explicitement que le système d’IA ne peut pas diriger des armes autonomes dans les cas où la loi, la réglementation ou la politique du Département exige un contrôle humain — conforme à la Directive DoD 3000.09 (25 janvier 2023).
Position sur Anthropic : OpenAI déclare explicitement qu’Anthropic ne devrait pas être désignée comme “risque pour la chaîne d’approvisionnement” et a communiqué cette position au gouvernement. La société a demandé que les mêmes termes contractuels soient proposés à tous les labs IA.
🔗 Our agreement with the Department of War
Anthropic refuse les mêmes concessions et menace d’aller en justice
27 février 2026 — Le Secrétaire à la Guerre Pete Hegseth a annoncé sur X son intention de désigner Anthropic comme risque dans la chaîne d’approvisionnement (supply chain risk). Anthropic a répondu le même jour par un statement officiel, distinct du statement de Dario Amodei publié la veille.
Le statement explique les raisons de l’impasse : Anthropic avait demandé deux exceptions à l’utilisation de Claude par le Département de la Guerre — la surveillance domestique de masse des Américains, et les armes entièrement autonomes. Ces deux exceptions n’ont pas été acceptées.
“No amount of intimidation or punishment from the Department of War will change our position on mass domestic surveillance or fully autonomous weapons. We will challenge any supply chain risk designation in court.”
🇫🇷 “Aucune intimidation ni punition de la part du Département de la Guerre ne changera notre position sur la surveillance domestique de masse ou les armes entièrement autonomes. Nous contesterons toute désignation de risque dans la chaîne d’approvisionnement devant les tribunaux.” — @AnthropicAI sur X
Anthropic précise l’impact réel pour ses clients :
| Segment | Impact |
|---|---|
| Utilisateurs individuels et API | Accès à Claude totalement inchangé |
| Contractants DoW | Seule l’utilisation dans le cadre des contrats DoW serait affectée — pas les autres usages |
🔗 Statement Anthropic (anthropic.com)
Memory Claude gratuite + import depuis d’autres providers IA
2 mars 2026 — Claude annonce que la fonctionnalité Memory est désormais disponible pour tous les utilisateurs, y compris sur le plan gratuit.
“Memory is now available on the free plan. We’ve also made it easier to import saved memories into Claude. You can export them whenever you want.”
🇫🇷 “La mémoire est maintenant disponible sur le plan gratuit. Nous avons également facilité l’importation de souvenirs enregistrés dans Claude. Vous pouvez les exporter quand vous le souhaitez.” — @claudeai sur X
La nouvelle fonctionnalité d’import permet de transférer le contexte mémorisé depuis d’autres assistants IA vers Claude — ChatGPT, Gemini ou autre. L’interface propose un bouton “Start import” avec l’indication “Bring relevant context and data from another AI provider to Claude.”
Pour commencer : Settings → Memory.
Qwen 3.5 Small Series — quatre modèles compacts open-weight
2 mars 2026 — Alibaba/Qwen complète sa gamme Qwen3.5 avec quatre modèles compacts open-weight : Qwen3.5-0.8B, Qwen3.5-2B, Qwen3.5-4B et Qwen3.5-9B.
Ces modèles partagent la même architecture que les grands modèles Qwen3.5 — multimodale native, entraînement par apprentissage par renforcement (Reinforcement Learning) à l’échelle — dans des formats adaptés à différents contextes :
| Modèle | Usage cible |
|---|---|
| Qwen3.5-0.8B | Edge devices, latence ultra-basse |
| Qwen3.5-2B | Déploiements embarqués, léger et rapide |
| Qwen3.5-4B | Base multimodale pour agents légers |
| Qwen3.5-9B | Compact mais rivalise avec des modèles bien plus grands |
Les modèles Base sont également publiés pour permettre le fine-tuning par la communauté de recherche. L’annonce a recueilli 1,6 million de vues sur X dès le premier jour.
🔗 Qwen 3.5 Small Series sur Hugging Face 🔗 Tweet @Alibaba_Qwen
Gemini CLI v0.31.0 : agent browser, Gemini 3.1 Pro, Policy Engine
27 février 2026 — Gemini CLI passe en version 0.31.0 avec quatre apports majeurs.
| Fonctionnalité | Description |
|---|---|
| Gemini 3.1 Pro Preview | Accès au modèle le plus récent de Google directement depuis le terminal |
| Agent browser expérimental | Interagit avec des pages web sans configuration supplémentaire |
| Policy Engine — projet | Politiques de niveau projet, wildcards MCP, filtrage par annotations d’outils |
| Web fetch direct | Mode expérimental avec rate limiting intégré |
L’agent browser ouvre la voie à des workflows d’automatisation web depuis la CLI — scraping, tests, interactions avec des interfaces non-API. C’est une fonctionnalité expérimentale, donc à utiliser avec précaution en environnement de production.
GitHub Copilot : déprécation de Gemini 3 Pro et des modèles GPT-5.1
2 mars 2026 — GitHub a annoncé la déprécation prochaine de plusieurs modèles dans toutes les expériences Copilot (Chat, inline edits, modes ask/agent, code completions).
| Modèle | Date de déprécation | Alternative suggérée |
|---|---|---|
| Gemini 3 Pro | 26 mars 2026 | Gemini 3.1 Pro |
| GPT-5.1 | 1er avril 2026 | GPT-5.3-Codex |
| GPT-5.1-Codex | 1er avril 2026 | GPT-5.3-Codex |
| GPT-5.1-Codex-Mini | 1er avril 2026 | GPT-5.3-Codex |
| GPT-5.1-Codex-Max | 1er avril 2026 | GPT-5.3-Codex |
La déprécation anticipée de Gemini 3 Pro au 26 mars (plutôt qu’une date ultérieure) est justifiée par une déprécation du côté de Google lui-même. Les admins Copilot Enterprise doivent vérifier leurs policies de modèles dans les paramètres Copilot et activer les alternatives avant ces dates.
Les métriques Copilot incluent également désormais la télémétrie du mode Plan — disponible dans JetBrains, Eclipse, Xcode et VS Code Insiders, avec release générale VS Code prévue prochainement.
🔗 GitHub Changelog — déprécation modèles 🔗 Copilot metrics — Plan mode
NVIDIA Nemotron LTM 30B et Blueprints télécom pour MWC Barcelona
28 février 2026 — En avance du Mobile World Congress Barcelona (2–5 mars 2026), NVIDIA a lancé deux annonces liées à l’IA dans les télécoms.
Nemotron LTM 30B est un modèle open source de 30 milliards de paramètres développé avec AdaptKey AI, basé sur NVIDIA Nemotron 3 et fine-tuné sur des données télécom ouvertes (standards industrie et logs synthétiques). C’est la première fois que NVIDIA publie un Large Telco Model open source dédié au secteur.
Deux nouveaux NVIDIA Blueprints accompagnent ce lancement :
| Blueprint | Partenaire | Usage |
|---|---|---|
| Energy saving RAN | VIAVI TeraVM | Optimisation énergétique des réseaux radio |
| Network configuration multi-agent | Tech Mahindra | Raisonnement comme ingénieurs NOC |
Parmi les premiers adoptants : Cassava Technologies (Afrique), NTT DATA (Japon), Telenor Maritime. Les modèles sont publiés via l’initiative GSMA Open Telco AI.
Le rapport State of AI in Telecom 2026 publié le 27 février conclut que l’automatisation réseau est le cas d’usage IA #1 pour le retour sur investissement dans les télécoms.
Runway : nouveau co-CEO et quatre nominations au C-suite
26 février 2026 — Runway a annoncé des changements de leadership. Anastasis Germanidis, co-fondateur de la société, devient co-CEO aux côtés de Cristóbal Valenzuela.
Quatre nouvelles nominations au C-suite :
| Rôle | Personne |
|---|---|
| CTO | Kamil Sindi |
| COO | Michelle Kwon |
| CPO | Anna Chalon |
| CCO | Jamie Umpherson |
Runway décrit ces nominations comme la formalisation d’une structure déjà existante, en ligne avec sa vision “world simulation”.
Brèves
Midjourney : Moodboards et Personalization sur Niji V7
26 février — Midjourney a ajouté les Moodboards et la Personalization au modèle Niji V7 (spécialisé anime/illustration). Les web rooms sont progressivement supprimées au profit d’outils de collaboration prochains.
Genspark : Nano Banana 2 gratuit + Workspace 3.0 en approche
27 février / 2 mars — Nano Banana 2 (générateur d’images IA) est maintenant disponible dans l’AI Image Agent de Genspark, gratuitement pour tous les utilisateurs (illimité pour les abonnés Plus et Pro). Par ailleurs, le CEO Eric Jing a annoncé Genspark Workspace 3.0 pour la semaine du 9 mars — troisième version majeure après Workspace 1.0 (nov. 2025) et 2.0 (jan. 2026).
🔗 Tweet Genspark Workspace 3.0
Perplexity organise “Ask”, sa première conférence développeurs
27 février — Perplexity a annoncé “Ask”, sa toute première conférence développeurs, prévue le 11 mars 2026 à San Francisco. Inscription sur events.perplexity.ai/ask2026. Le contexte : Perplexity indique que ses APIs atteignent des centaines de millions d’appareils Samsung et sont utilisées par 6 des 7 “Magnificent Seven”.
Stargate Texas : les premières poutres d’acier
27 février — Greg Brockman (@gdb) a partagé une mise à jour visuelle sur le chantier Stargate de Milam County, Texas : les premières poutres d’acier ont été posées sur le site, en partenariat avec SoftBank et SBEnergy.
ChatGPT : contact de confiance pour les situations de détresse
27 février — OpenAI a annoncé une fonctionnalité “Trusted Contact” pour ChatGPT : les utilisateurs adultes pourront désigner un contact qui recevra des notifications si l’utilisateur semble avoir besoin de soutien. Développée avec le “Council on Well-Being and AI” et le “Global Physicians Network”. Un tribunal californien a parallèlement regroupé plusieurs affaires liées à la santé mentale impliquant ChatGPT dans une procédure unique.
Google AI : Flow redesign, Opal, producer.ai, Gemini K-12
27 février — Google a annoncé plusieurs items dans son récap hebdomadaire @GoogleAI : Flow by Google (outil de création vidéo) a reçu un redesign majeur visant à devenir un studio créatif IA complet. Opal (Google Labs) introduit un “agent step” pour transformer des workflows statiques en expériences interactives. producer.ai a officiellement rejoint Google Labs. La formation Gemini est désormais disponible pour les 6 millions d’enseignants K-12 et du supérieur aux États-Unis.
@OpenAIDevs teaser “Soon.”
2 mars — @OpenAIDevs a publié un teaser avec une image Windows XP et le seul mot “Soon.” — 179 000 vues. Aucun détail supplémentaire disponible.
Ce que ça signifie
La confrontation OpenAI/Anthropic avec le Département de la Guerre révèle une divergence de stratégie plus qu’une divergence de valeurs : les deux labs tracent des lignes rouges similaires (surveillance de masse, armes autonomes), mais OpenAI a négocié un accord avec des garde-fous contractuels, là où Anthropic a refusé de signer sans garanties acceptées. La position publique d’OpenAI en faveur d’Anthropic complique le tableau — les deux labs semblent coordonnés sur les principes, même si leurs trajectoires commerciales divergent.
Claude Code v2.1.63 confirme la cadence rapide d’Anthropic sur les outils CLI : les HTTP hooks élargissent concrètement les intégrations possibles, et la vague de corrections mémoire témoigne d’un effort de stabilisation sérieux pour les workflows longue durée. La mémoire gratuite, elle, positionne Claude dans la compétition directe avec ChatGPT sur le grand public.
Du côté des modèles, Qwen continue sa stratégie d’occupation de gamme : après les gros modèles MoE mi-février, la série Small 0.8B–9B cible l’edge et les agents légers — segment encore peu couvert par les labs occidentaux en open-weight.
Sources
- CHANGELOG Claude Code — GitHub
- Statement Anthropic — supply chain risk
- @AnthropicAI sur X
- OpenAI — Our agreement with the Department of War
- @OpenAI sur X
- Memory Claude gratuite — @claudeai sur X
- Qwen 3.5 Small Series — @Alibaba_Qwen sur X
- Qwen 3.5 Small sur Hugging Face
- Changelog Gemini CLI v0.31.0
- GitHub Changelog — déprécation Gemini 3 Pro et GPT-5.1
- GitHub Changelog — Copilot metrics Plan mode
- NVIDIA Nemotron LTM 30B et Blueprints télécom
- Runway — nouveau leadership
- @midjourney — Niji V7 Moodboards
- Genspark Workspace 3.0 — @genspark_ai sur X
- Perplexity Ask — @perplexity_ai sur X
- Stargate Texas — @gdb sur X
- OpenAI — update santé mentale ChatGPT
- @GoogleAI récap hebdomadaire 27 février
- Teaser @OpenAIDevs “Soon.”