Rechercher

Claude Code v2.1.63, OpenAI signe avec le Pentagone, Anthropic tient bon face au DoW

Claude Code v2.1.63, OpenAI signe avec le Pentagone, Anthropic tient bon face au DoW

La fin du mois de février 2026 s’achève sous le signe des frictions entre les grands labs IA et le Département de la Guerre américain : OpenAI signe un accord classifié avec le Pentagone avec trois lignes rouges, tandis qu’Anthropic refuse les mêmes concessions et menace d’aller en justice. Sur le front technique, Claude Code v2.1.63 est la mise à jour la plus substantielle depuis plusieurs semaines, et la mémoire Claude ouvre enfin ses portes aux utilisateurs gratuits.


Claude Code v2.1.63 : /simplify, HTTP hooks et vague de corrections mémoire

28 février 2026 — La version 2.1.63 de Claude Code est la plus complète depuis plusieurs semaines. Elle combine de nouvelles fonctionnalités pour les développeurs et une vague majeure de corrections de fuites mémoire — huit au total.

Nouvelles fonctionnalités

FonctionnalitéDescription
/simplify et /batchDeux nouveaux slash commands bundlés dans l’installation par défaut
HTTP hooksLes hooks peuvent désormais envoyer du JSON vers une URL externe (POST) et recevoir du JSON en retour, au lieu d’exécuter uniquement une commande shell
Project configs & auto memoryPartagées entre tous les git worktrees du même repository
ENABLE_CLAUDEAI_MCP_SERVERS=falseNouvelle variable d’environnement pour désactiver les serveurs MCP claude.ai
/model amélioréAffiche maintenant le modèle actif dans le menu des slash commands
/copy “Always copy full response”Option pour copier directement la réponse complète sans passer par le picker
VSCode — gestion de sessionsActions rename et remove disponibles dans la liste des sessions
MCP OAuth — URL paste fallbackSi le redirect localhost échoue, l’URL callback peut être collée manuellement

L’ajout des HTTP hooks est particulièrement notable : il permet d’intégrer Claude Code dans des workflows d’automatisation externes (CI, webhooks, systèmes de notification) sans passer par des scripts shell intermédiaires.

Corrections de fuites mémoire (8 fixes)

Une vague de 8 corrections cible les accumulations mémoire dans les sessions longues :

  • Bridge polling loop, MCP OAuth flow, menu de configuration hooks, bash command prefix cache
  • MCP tool/resource cache, détection IP IDE host, WebSocket listener, détection git root
  • Messages de teammates libérés après compaction de conversation
  • MCP server fetch caches nettoyés sur déconnexion
  • Subagents : payloads de progression allégés pendant la compaction

Pour les équipes utilisant Claude Code en mode orchestrateur multi-agents ou en sessions longues, ces corrections devraient réduire sensiblement la consommation mémoire sur le long terme.

Autres corrections

  • VSCode : sessions distantes absentes de l’historique de conversation — corrigé
  • Race condition dans le REPL bridge (messages entrants interleaved avec l’historique)
  • /clear : skills cachés périmés qui persistaient dans la nouvelle conversation

🔗 CHANGELOG Claude Code


OpenAI × Anthropic face au Département de la Guerre — Deux approches, un même refus

OpenAI signe un accord classifié avec le Pentagone

28 février 2026 — OpenAI a conclu un accord avec le Département de la Guerre (anciennement Défense) pour déployer des systèmes d’IA dans des environnements classifiés. La société affirme que cet accord impose plus de garde-fous que tout déploiement IA classifié précédent.

OpenAI définit trois lignes rouges non négociables :

Ligne rougeDescription
Pas de surveillance de masseInterdit pour surveiller des citoyens américains à grande échelle
Pas d’armes autonomesClaude ne peut pas diriger des armes sans supervision humaine
Pas de décisions automatisées à forts enjeuxSupervision humaine obligatoire sur toutes les décisions critiques

L’architecture de déploiement est cloud uniquement (pas d’edge/on-premise), avec la pile de sécurité OpenAI intacte. Des ingénieurs OpenAI habilités secret-défense seront présents sur place. Aucun modèle “sans garde-fous” n’est fourni.

Le contrat stipule explicitement que le système d’IA ne peut pas diriger des armes autonomes dans les cas où la loi, la réglementation ou la politique du Département exige un contrôle humain — conforme à la Directive DoD 3000.09 (25 janvier 2023).

Position sur Anthropic : OpenAI déclare explicitement qu’Anthropic ne devrait pas être désignée comme “risque pour la chaîne d’approvisionnement” et a communiqué cette position au gouvernement. La société a demandé que les mêmes termes contractuels soient proposés à tous les labs IA.

🔗 Our agreement with the Department of War

Anthropic refuse les mêmes concessions et menace d’aller en justice

27 février 2026 — Le Secrétaire à la Guerre Pete Hegseth a annoncé sur X son intention de désigner Anthropic comme risque dans la chaîne d’approvisionnement (supply chain risk). Anthropic a répondu le même jour par un statement officiel, distinct du statement de Dario Amodei publié la veille.

Le statement explique les raisons de l’impasse : Anthropic avait demandé deux exceptions à l’utilisation de Claude par le Département de la Guerre — la surveillance domestique de masse des Américains, et les armes entièrement autonomes. Ces deux exceptions n’ont pas été acceptées.

“No amount of intimidation or punishment from the Department of War will change our position on mass domestic surveillance or fully autonomous weapons. We will challenge any supply chain risk designation in court.”

🇫🇷 “Aucune intimidation ni punition de la part du Département de la Guerre ne changera notre position sur la surveillance domestique de masse ou les armes entièrement autonomes. Nous contesterons toute désignation de risque dans la chaîne d’approvisionnement devant les tribunaux.”@AnthropicAI sur X

Anthropic précise l’impact réel pour ses clients :

SegmentImpact
Utilisateurs individuels et APIAccès à Claude totalement inchangé
Contractants DoWSeule l’utilisation dans le cadre des contrats DoW serait affectée — pas les autres usages

🔗 Statement Anthropic (anthropic.com)


Memory Claude gratuite + import depuis d’autres providers IA

2 mars 2026 — Claude annonce que la fonctionnalité Memory est désormais disponible pour tous les utilisateurs, y compris sur le plan gratuit.

“Memory is now available on the free plan. We’ve also made it easier to import saved memories into Claude. You can export them whenever you want.”

🇫🇷 “La mémoire est maintenant disponible sur le plan gratuit. Nous avons également facilité l’importation de souvenirs enregistrés dans Claude. Vous pouvez les exporter quand vous le souhaitez.”@claudeai sur X

La nouvelle fonctionnalité d’import permet de transférer le contexte mémorisé depuis d’autres assistants IA vers Claude — ChatGPT, Gemini ou autre. L’interface propose un bouton “Start import” avec l’indication “Bring relevant context and data from another AI provider to Claude.”

Pour commencer : Settings → Memory.

🔗 Tweet @claudeai


Qwen 3.5 Small Series — quatre modèles compacts open-weight

2 mars 2026 — Alibaba/Qwen complète sa gamme Qwen3.5 avec quatre modèles compacts open-weight : Qwen3.5-0.8B, Qwen3.5-2B, Qwen3.5-4B et Qwen3.5-9B.

Ces modèles partagent la même architecture que les grands modèles Qwen3.5 — multimodale native, entraînement par apprentissage par renforcement (Reinforcement Learning) à l’échelle — dans des formats adaptés à différents contextes :

ModèleUsage cible
Qwen3.5-0.8BEdge devices, latence ultra-basse
Qwen3.5-2BDéploiements embarqués, léger et rapide
Qwen3.5-4BBase multimodale pour agents légers
Qwen3.5-9BCompact mais rivalise avec des modèles bien plus grands

Les modèles Base sont également publiés pour permettre le fine-tuning par la communauté de recherche. L’annonce a recueilli 1,6 million de vues sur X dès le premier jour.

🔗 Qwen 3.5 Small Series sur Hugging Face 🔗 Tweet @Alibaba_Qwen


Gemini CLI v0.31.0 : agent browser, Gemini 3.1 Pro, Policy Engine

27 février 2026 — Gemini CLI passe en version 0.31.0 avec quatre apports majeurs.

FonctionnalitéDescription
Gemini 3.1 Pro PreviewAccès au modèle le plus récent de Google directement depuis le terminal
Agent browser expérimentalInteragit avec des pages web sans configuration supplémentaire
Policy Engine — projetPolitiques de niveau projet, wildcards MCP, filtrage par annotations d’outils
Web fetch directMode expérimental avec rate limiting intégré

L’agent browser ouvre la voie à des workflows d’automatisation web depuis la CLI — scraping, tests, interactions avec des interfaces non-API. C’est une fonctionnalité expérimentale, donc à utiliser avec précaution en environnement de production.

🔗 Changelog Gemini CLI


GitHub Copilot : déprécation de Gemini 3 Pro et des modèles GPT-5.1

2 mars 2026 — GitHub a annoncé la déprécation prochaine de plusieurs modèles dans toutes les expériences Copilot (Chat, inline edits, modes ask/agent, code completions).

ModèleDate de déprécationAlternative suggérée
Gemini 3 Pro26 mars 2026Gemini 3.1 Pro
GPT-5.11er avril 2026GPT-5.3-Codex
GPT-5.1-Codex1er avril 2026GPT-5.3-Codex
GPT-5.1-Codex-Mini1er avril 2026GPT-5.3-Codex
GPT-5.1-Codex-Max1er avril 2026GPT-5.3-Codex

La déprécation anticipée de Gemini 3 Pro au 26 mars (plutôt qu’une date ultérieure) est justifiée par une déprécation du côté de Google lui-même. Les admins Copilot Enterprise doivent vérifier leurs policies de modèles dans les paramètres Copilot et activer les alternatives avant ces dates.

Les métriques Copilot incluent également désormais la télémétrie du mode Plan — disponible dans JetBrains, Eclipse, Xcode et VS Code Insiders, avec release générale VS Code prévue prochainement.

🔗 GitHub Changelog — déprécation modèles 🔗 Copilot metrics — Plan mode


NVIDIA Nemotron LTM 30B et Blueprints télécom pour MWC Barcelona

28 février 2026 — En avance du Mobile World Congress Barcelona (2–5 mars 2026), NVIDIA a lancé deux annonces liées à l’IA dans les télécoms.

Nemotron LTM 30B est un modèle open source de 30 milliards de paramètres développé avec AdaptKey AI, basé sur NVIDIA Nemotron 3 et fine-tuné sur des données télécom ouvertes (standards industrie et logs synthétiques). C’est la première fois que NVIDIA publie un Large Telco Model open source dédié au secteur.

Deux nouveaux NVIDIA Blueprints accompagnent ce lancement :

BlueprintPartenaireUsage
Energy saving RANVIAVI TeraVMOptimisation énergétique des réseaux radio
Network configuration multi-agentTech MahindraRaisonnement comme ingénieurs NOC

Parmi les premiers adoptants : Cassava Technologies (Afrique), NTT DATA (Japon), Telenor Maritime. Les modèles sont publiés via l’initiative GSMA Open Telco AI.

Le rapport State of AI in Telecom 2026 publié le 27 février conclut que l’automatisation réseau est le cas d’usage IA #1 pour le retour sur investissement dans les télécoms.

🔗 Blog NVIDIA Nemotron LTM


Runway : nouveau co-CEO et quatre nominations au C-suite

26 février 2026 — Runway a annoncé des changements de leadership. Anastasis Germanidis, co-fondateur de la société, devient co-CEO aux côtés de Cristóbal Valenzuela.

Quatre nouvelles nominations au C-suite :

RôlePersonne
CTOKamil Sindi
COOMichelle Kwon
CPOAnna Chalon
CCOJamie Umpherson

Runway décrit ces nominations comme la formalisation d’une structure déjà existante, en ligne avec sa vision “world simulation”.

🔗 Annonce Runway


Brèves

Midjourney : Moodboards et Personalization sur Niji V7

26 février — Midjourney a ajouté les Moodboards et la Personalization au modèle Niji V7 (spécialisé anime/illustration). Les web rooms sont progressivement supprimées au profit d’outils de collaboration prochains.

🔗 Tweet @midjourney

Genspark : Nano Banana 2 gratuit + Workspace 3.0 en approche

27 février / 2 mars — Nano Banana 2 (générateur d’images IA) est maintenant disponible dans l’AI Image Agent de Genspark, gratuitement pour tous les utilisateurs (illimité pour les abonnés Plus et Pro). Par ailleurs, le CEO Eric Jing a annoncé Genspark Workspace 3.0 pour la semaine du 9 mars — troisième version majeure après Workspace 1.0 (nov. 2025) et 2.0 (jan. 2026).

🔗 Tweet Genspark Workspace 3.0

Perplexity organise “Ask”, sa première conférence développeurs

27 février — Perplexity a annoncé “Ask”, sa toute première conférence développeurs, prévue le 11 mars 2026 à San Francisco. Inscription sur events.perplexity.ai/ask2026. Le contexte : Perplexity indique que ses APIs atteignent des centaines de millions d’appareils Samsung et sont utilisées par 6 des 7 “Magnificent Seven”.

🔗 Tweet @perplexity_ai

Stargate Texas : les premières poutres d’acier

27 février — Greg Brockman (@gdb) a partagé une mise à jour visuelle sur le chantier Stargate de Milam County, Texas : les premières poutres d’acier ont été posées sur le site, en partenariat avec SoftBank et SBEnergy.

🔗 Tweet @gdb

ChatGPT : contact de confiance pour les situations de détresse

27 février — OpenAI a annoncé une fonctionnalité “Trusted Contact” pour ChatGPT : les utilisateurs adultes pourront désigner un contact qui recevra des notifications si l’utilisateur semble avoir besoin de soutien. Développée avec le “Council on Well-Being and AI” et le “Global Physicians Network”. Un tribunal californien a parallèlement regroupé plusieurs affaires liées à la santé mentale impliquant ChatGPT dans une procédure unique.

🔗 Update santé mentale OpenAI

Google AI : Flow redesign, Opal, producer.ai, Gemini K-12

27 février — Google a annoncé plusieurs items dans son récap hebdomadaire @GoogleAI : Flow by Google (outil de création vidéo) a reçu un redesign majeur visant à devenir un studio créatif IA complet. Opal (Google Labs) introduit un “agent step” pour transformer des workflows statiques en expériences interactives. producer.ai a officiellement rejoint Google Labs. La formation Gemini est désormais disponible pour les 6 millions d’enseignants K-12 et du supérieur aux États-Unis.

🔗 Récap @GoogleAI

@OpenAIDevs teaser “Soon.”

2 mars — @OpenAIDevs a publié un teaser avec une image Windows XP et le seul mot “Soon.” — 179 000 vues. Aucun détail supplémentaire disponible.

🔗 Teaser @OpenAIDevs


Ce que ça signifie

La confrontation OpenAI/Anthropic avec le Département de la Guerre révèle une divergence de stratégie plus qu’une divergence de valeurs : les deux labs tracent des lignes rouges similaires (surveillance de masse, armes autonomes), mais OpenAI a négocié un accord avec des garde-fous contractuels, là où Anthropic a refusé de signer sans garanties acceptées. La position publique d’OpenAI en faveur d’Anthropic complique le tableau — les deux labs semblent coordonnés sur les principes, même si leurs trajectoires commerciales divergent.

Claude Code v2.1.63 confirme la cadence rapide d’Anthropic sur les outils CLI : les HTTP hooks élargissent concrètement les intégrations possibles, et la vague de corrections mémoire témoigne d’un effort de stabilisation sérieux pour les workflows longue durée. La mémoire gratuite, elle, positionne Claude dans la compétition directe avec ChatGPT sur le grand public.

Du côté des modèles, Qwen continue sa stratégie d’occupation de gamme : après les gros modèles MoE mi-février, la série Small 0.8B–9B cible l’edge et les agents légers — segment encore peu couvert par les labs occidentaux en open-weight.


Sources