Le 26 février 2026 marque une journée dense : Dario Amodei expose publiquement les deux lignes rouges qu’Anthropic refuse de franchir pour le Département de la Guerre américain, Perplexity décroche un accès OS-level sur 800 millions d’appareils Samsung, GitHub étend Claude et Codex à Copilot Business et Pro, et Eli Lilly inaugure LillyPod, la plus puissante AI factory pharmaceutique jamais construite.
Anthropic face au Département de la Guerre
26 février — Dario Amodei, PDG d’Anthropic, publie une déclaration publique sur les discussions en cours avec le Département de la Guerre (DoW) américain. Le texte expose deux lignes rouges qu’Anthropic refuse de franchir, même sous pression gouvernementale.
Anthropic est le premier fournisseur de modèles frontier à avoir déployé ses modèles dans les réseaux classifiés du gouvernement américain, aux laboratoires nationaux, et pour des clients de sécurité nationale. Claude est utilisé pour l’analyse de renseignement, la modélisation, la planification opérationnelle et les opérations cyber.
Les deux cas d’usage refusés :
| Cas d’usage | Position d’Anthropic |
|---|---|
| Surveillance domestique de masse | Incompatible avec les valeurs démocratiques. L’IA permet d’assembler des données éparses en portrait complet de toute personne, à grande échelle. |
| Armes entièrement autonomes | Les modèles actuels ne sont pas suffisamment fiables. Pas de supervision humaine = risques inacceptables pour les soldats et les civils. |
Le DoW aurait exigé qu’Anthropic accepte “tout usage légal” et retire ces garde-fous. En cas de refus, le DoW menacerait de désigner Anthropic comme “risque de chaîne d’approvisionnement” — label jamais appliqué à une entreprise américaine, habituellement réservé aux adversaires. Amodei note l’ironie : une menace les qualifie de risque sécurité, l’autre les considère essentiels à la sécurité nationale.
Anthropic indique rester disponible pour une transition fluide si le DoW choisit un autre fournisseur.
🔗 Statement from Dario Amodei on our discussions with the Department of War
Perplexity intégré au Samsung Galaxy S26
26 février — Perplexity annonce son intégration dans le Samsung Galaxy S26 en tant qu’IA système, avec le wake word “Hey Plex”. C’est la première fois que Samsung accorde un accès OS-level à une entreprise tierce non-Google ou non-Samsung.
Ce que l’intégration permet :
| Fonctionnalité | Détail |
|---|---|
| Wake word | ”Hey Plex” + bouton latéral (appui long) |
| Accès natif | Notes, Calendar, Gallery, Clock, Reminders |
| Bixby | Utilise les API Perplexity pour la recherche et le raisonnement en temps réel |
| Samsung Internet | Intégration des API Perplexity avec capacités d’agent browser |
| Moteur de recherche | Disponible comme option par défaut dans Samsung Browser |
Samsung a conçu le S26 autour d’un modèle multi-agent. Ses données internes indiquent que 8 utilisateurs sur 10 utilisent déjà plus de deux agents IA par jour. Perplexity est préinstallé sur tous les S26, sans téléchargement ni configuration. Avec 800 millions d’appareils Samsung actifs en 2026, l’accord représente un accès hardware massif pour Perplexity.
🔗 Blog Perplexity — Samsung Partnership
Claude et Codex GA pour Copilot Business et Pro
26 février — GitHub étend l’accès aux agents Claude (Anthropic) et OpenAI Codex aux abonnements Copilot Business et Copilot Pro. Jusqu’ici réservé à Copilot Enterprise et Pro+, cet accès est maintenant élargi à une base d’utilisateurs bien plus large.
Les trois agents (Claude, Codex, Copilot) fonctionnent sur une plateforme unifiée avec gouvernance centralisée, contexte partagé et mémoire commune. Ils sont accessibles depuis github.com, GitHub Mobile et VS Code, sans abonnement supplémentaire requis.
| Fonctionnalité | Détail |
|---|---|
| Agents disponibles | Claude (Anthropic), OpenAI Codex, GitHub Copilot |
| Surfaces | github.com, GitHub Mobile, VS Code |
| Gouvernance | Agent Control Plane (GA) — audit logs, politiques centralisées |
| Abonnement requis | Aucun supplémentaire (inclus dans Business/Pro) |
| Sessions | Asynchrones avec logs détaillés |
Activation pour Copilot Business : un admin doit activer les agents au niveau entreprise (Enterprise AI Controls → Agents → Partner Agents) ET au niveau organisation (Settings → Copilot → Coding agent → Partner Agents).
Chaque session d’agent consomme une “premium request” pendant la période de préversion publique. Les sessions s’utilisent depuis l’onglet Agents d’un dépôt, en assignant une issue à @claude ou @codex, ou en les mentionnant dans les commentaires de PR.
🔗 Claude and Codex now available for Copilot Business & Pro users
NVIDIA + Eli Lilly — LillyPod DGX SuperPOD
26 février — Eli Lilly inaugure LillyPod, le premier NVIDIA DGX SuperPOD équipé de systèmes DGX B300, construit en quatre mois. C’est la plus puissante AI factory entièrement détenue et opérée par une société pharmaceutique.
| Métrique | Valeur |
|---|---|
| GPUs | 1 016 NVIDIA Blackwell Ultra (DGX B300) |
| Performance | >9 000 pétaflops IA |
| Délai de construction | 4 mois |
| Connexions réseau | ~5 000 |
LillyPod supporte l’entraînement de modèles de diffusion de protéines, de graph neural networks pour petites molécules, et de modèles de fondation en génomique. L’architecture repose sur NVIDIA DGX SuperPOD avec Spectrum-X Ethernet networking et NVIDIA Mission Control pour l’orchestration.
Codex CLI v0.106.0
26 février — OpenAI publie Codex CLI v0.106.0, une release stable avec plusieurs ajouts notables.
| Fonctionnalité | Détail |
|---|---|
| Script d’installation direct | Nouveau script pour macOS et Linux, distribué comme asset GitHub Release |
| App-server v2 Realtime API | Thread-scoped realtime endpoints et thread/unsubscribe flow |
| js_repl promu à /experimental | Vérifications de compatibilité Node (minimum 22.22.0) au démarrage |
| request_user_input en mode Default | Plus seulement disponible en mode Plan |
| gpt-5.3-codex visible dans CLI | Modèle maintenant affiché dans la liste pour les utilisateurs API |
| Mémoire diff-based | Forgetting basé sur les diffs et sélection par usage |
Parmi les corrections de bugs : un fix sécurité sur le chemin d’exécution zsh-fork qui pouvait contourner les wrappers sandbox, et un cap à 1 million de caractères sur les inputs TUI/app-server pour éviter les crashes sur paste massif.
Claude Code v2.1.59 + v2.1.61
26 février — Claude Code publie les versions v2.1.59 et v2.1.61 avec des fonctionnalités notables.
v2.1.59 — Nouvelles fonctionnalités :
| Fonctionnalité | Description |
|---|---|
| Auto-memory | Claude sauvegarde automatiquement le contexte utile en mémoire persistante. Gérable via /memory |
Commande /copy | Picker interactif quand des blocs de code sont présents — permet de sélectionner des blocs individuels ou la réponse complète |
| Suggestions “always allow” | Meilleures suggestions pour les commandes bash composées (ex : cd /tmp && git fetch && git push) |
| Ordre des tâches courtes | Amélioration de l’ordonnancement dans les sessions multi-agents |
| Fix MCP OAuth | Correction race condition lors de l’exécution de plusieurs instances Claude Code simultanément |
v2.1.61 : correction des écritures concurrentes corrompant le fichier de config sur Windows.
Nouvelles Anthropic : Open Source et Connectors
26 février — Anthropic annonce deux ouvertures complémentaires :
Claude for Open Source — Les mainteneurs et contributeurs principaux de projets open source populaires reçoivent 6 mois d’accès gratuit au plan Claude Max 20x. Boris Cherny (@bcherny), responsable de Claude Code, souligne que “beaucoup de ce qui rend Claude Code excellent vient des retours des développeurs OSS.”
Connectors sur plan gratuit — Les Connectors de Claude sont désormais accessibles aux utilisateurs du plan gratuit. Le catalogue compte plus de 150 connecteurs dans les catégories coding, data, design, finance, sales, et autres.
🔗 Tweet Lydia Hallie — Claude for Open Source 🔗 claude.com/connectors
GitHub Enterprise : gouvernance IA en GA
26 février — GitHub annonce la disponibilité générale (GA) des Enterprise AI Controls et de l’Agent Control Plane, la suite de gouvernance IA pour les administrateurs GitHub Enterprise.
Les fonctionnalités GA incluent : recherche et filtrage de l’activité des sessions d’agents (y compris agents tiers), suppression de la limite de 1 000 enregistrements pour les sessions des 24 dernières heures, API pour appliquer des définitions d’agents personnalisés à l’échelle de l’entreprise.
Reste en préversion publique : la gestion des allowlists MCP à l’échelle de l’entreprise.
🔗 Enterprise AI Controls & agent control plane now generally available
GitHub Mobile : sélecteur de modèle pour Copilot
26 février — GitHub Mobile lance un sélecteur de modèle pour les sessions d’agent Copilot. L’utilisateur peut désormais choisir entre Auto, Claude (Anthropic), OpenAI Codex et d’autres modèles au démarrage d’une session.
Codex + Figma : workflow code→design→code
26 février — OpenAI Developers annonce une intégration entre Codex et Figma permettant un workflow bidirectionnel code→design→code. La fonctionnalité permet de générer des fichiers de design directement depuis du code, de collaborer dans Figma, puis d’implémenter les mises à jour dans Codex sans interrompre le flux de travail.
pplx-embed : embeddings SOTA de Perplexity
26 février — Perplexity lance deux familles de modèles d’embedding text : pplx-embed-v1 et pplx-embed-context-v1, disponibles en tailles 0,6B et 4B paramètres. Les modèles sont accessibles via l’API Perplexity et sur Hugging Face sous licence MIT.
| Benchmark | Score | Référence |
|---|---|---|
| ConTEB (contextual retrieval) | 81,96% | Nouveau SOTA (vs voyage-context-3 79,45%) |
| MTEB Multilingual v2 (4B INT8) | 69,66% nDCG@10 | vs Gemini-embedding-001 67,71% |
| PPLXQuery2Query Recall@10 | 73,5% | vs Qwen3-Embedding-4B 67,9% (+5,6 pts) |
Les modèles supportent la quantification INT8 (4x moins de stockage qu’FP32) et BINARY (32x moins). Aucun instruction prefix requis.
🔗 Article de recherche Perplexity
Gemini CLI v0.30.0 et Qwen 3.5 FP8
25 février — Gemini CLI publie sa version v0.30.0 avec trois axes de changements : l’introduction d’un SDK initial (@google/gemini-cli-sdk), un nouveau Policy Engine remplaçant --allowed-tools par un système de politiques granulaires, et des améliorations d’interface (thèmes Solarized, support Vim amélioré, suspension Ctrl-Z).
25 février — Alibaba publie les poids quantifiés FP8 de la série Qwen 3.5 Medium (35B-A3B, 122B-A10B, 27B), disponibles sur Hugging Face et ModelScope avec support natif vLLM et SGLang dès le jour 0. La quantification FP8 réduit significativement l’empreinte mémoire tout en préservant les performances.
En bref
-
Responses API champ
phase(24 fév) — OpenAI ajoute le champphaseà la Responses API, permettant d’étiqueter les messages assistant commecommentaryoufinal_answerpour différencier les étapes de raisonnement intermédiaire de la réponse finale. 🔗 Changelog OpenAI API -
GPT-5.3-Codex GA dans Copilot Chat (25 fév) — Disponible sur github.com, GitHub Mobile, VS Code et Visual Studio pour tous les abonnements Copilot payants. Les administrateurs Business/Enterprise doivent activer la politique dans les paramètres. 🔗 Changelog GitHub
-
NVIDIA AI Cybersecurity OT/ICS (23 fév) — Partenariats avec Akamai, Forescout, Palo Alto Networks, Siemens et Xage Security pour déployer l’IA dans la cybersécurité des technologies opérationnelles et des systèmes de contrôle industriels. 🔗 Blog NVIDIA
Ce que ça signifie
La déclaration de Dario Amodei sur le Département de la Guerre est inédite dans l’industrie IA. C’est la première fois qu’un CEO de lab frontier documente publiquement une pression gouvernementale pour supprimer des garde-fous éthiques, et refuse explicitement. Le label “risque de chaîne d’approvisionnement” mentionné par le DoW est habituellement réservé aux entreprises chinoises — son application potentielle à une entreprise américaine serait une escalade sans précédent.
Sur le terrain commercial, la journée du 26 février illustre la consolidation autour de quelques plateformes dominantes. GitHub unifie Claude, Codex et Copilot sur une seule surface avec gouvernance centralisée — c’est le modèle “agent marketplace” qui prend forme concrètement. L’intégration Perplexity sur Samsung suit la même logique : moins de nouveaux appareils à conquérir, plus d’intégrations profondes dans les plateformes existantes.
LillyPod chez Eli Lilly signale que l’IA en pharma passe à l’échelle industrielle : construire sa propre AI factory en 4 mois avec 1 016 GPUs Blackwell Ultra, c’est le signe que les grandes entreprises n’attendent plus le cloud pour les workloads les plus sensibles.
Sources
- Statement Dario Amodei — Department of War
- Tweet @lydiahallie — Claude for Open Source
- Tweet @claudeai — Connectors plan gratuit
- CHANGELOG Claude Code
- Claude and Codex GA — Copilot Business & Pro
- Enterprise AI Controls GA
- GitHub Mobile Model Picker
- Perplexity + Samsung Galaxy S26
- pplx-embed research article
- Codex CLI v0.106.0 Release
- Codex + Figma Tweet @OpenAIDevs
- NVIDIA LillyPod Blog
- NVIDIA AI Cybersecurity OT
- Gemini CLI Changelog
- Qwen3.5 FP8 Tweet @Alibaba_Qwen
- OpenAI Responses API Changelog
- GPT-5.3-Codex GA GitHub