Rechercher

Anthropic face au Département de la Guerre, Perplexity intégré au Galaxy S26, Claude et Codex GA chez Copilot

Anthropic face au Département de la Guerre, Perplexity intégré au Galaxy S26, Claude et Codex GA chez Copilot

Le 26 février 2026 marque une journée dense : Dario Amodei expose publiquement les deux lignes rouges qu’Anthropic refuse de franchir pour le Département de la Guerre américain, Perplexity décroche un accès OS-level sur 800 millions d’appareils Samsung, GitHub étend Claude et Codex à Copilot Business et Pro, et Eli Lilly inaugure LillyPod, la plus puissante AI factory pharmaceutique jamais construite.


Anthropic face au Département de la Guerre

26 février — Dario Amodei, PDG d’Anthropic, publie une déclaration publique sur les discussions en cours avec le Département de la Guerre (DoW) américain. Le texte expose deux lignes rouges qu’Anthropic refuse de franchir, même sous pression gouvernementale.

Anthropic est le premier fournisseur de modèles frontier à avoir déployé ses modèles dans les réseaux classifiés du gouvernement américain, aux laboratoires nationaux, et pour des clients de sécurité nationale. Claude est utilisé pour l’analyse de renseignement, la modélisation, la planification opérationnelle et les opérations cyber.

Les deux cas d’usage refusés :

Cas d’usagePosition d’Anthropic
Surveillance domestique de masseIncompatible avec les valeurs démocratiques. L’IA permet d’assembler des données éparses en portrait complet de toute personne, à grande échelle.
Armes entièrement autonomesLes modèles actuels ne sont pas suffisamment fiables. Pas de supervision humaine = risques inacceptables pour les soldats et les civils.

Le DoW aurait exigé qu’Anthropic accepte “tout usage légal” et retire ces garde-fous. En cas de refus, le DoW menacerait de désigner Anthropic comme “risque de chaîne d’approvisionnement” — label jamais appliqué à une entreprise américaine, habituellement réservé aux adversaires. Amodei note l’ironie : une menace les qualifie de risque sécurité, l’autre les considère essentiels à la sécurité nationale.

Anthropic indique rester disponible pour une transition fluide si le DoW choisit un autre fournisseur.

🔗 Statement from Dario Amodei on our discussions with the Department of War


Perplexity intégré au Samsung Galaxy S26

26 février — Perplexity annonce son intégration dans le Samsung Galaxy S26 en tant qu’IA système, avec le wake word “Hey Plex”. C’est la première fois que Samsung accorde un accès OS-level à une entreprise tierce non-Google ou non-Samsung.

Ce que l’intégration permet :

FonctionnalitéDétail
Wake word”Hey Plex” + bouton latéral (appui long)
Accès natifNotes, Calendar, Gallery, Clock, Reminders
BixbyUtilise les API Perplexity pour la recherche et le raisonnement en temps réel
Samsung InternetIntégration des API Perplexity avec capacités d’agent browser
Moteur de rechercheDisponible comme option par défaut dans Samsung Browser

Samsung a conçu le S26 autour d’un modèle multi-agent. Ses données internes indiquent que 8 utilisateurs sur 10 utilisent déjà plus de deux agents IA par jour. Perplexity est préinstallé sur tous les S26, sans téléchargement ni configuration. Avec 800 millions d’appareils Samsung actifs en 2026, l’accord représente un accès hardware massif pour Perplexity.

🔗 Blog Perplexity — Samsung Partnership


Claude et Codex GA pour Copilot Business et Pro

26 février — GitHub étend l’accès aux agents Claude (Anthropic) et OpenAI Codex aux abonnements Copilot Business et Copilot Pro. Jusqu’ici réservé à Copilot Enterprise et Pro+, cet accès est maintenant élargi à une base d’utilisateurs bien plus large.

Les trois agents (Claude, Codex, Copilot) fonctionnent sur une plateforme unifiée avec gouvernance centralisée, contexte partagé et mémoire commune. Ils sont accessibles depuis github.com, GitHub Mobile et VS Code, sans abonnement supplémentaire requis.

FonctionnalitéDétail
Agents disponiblesClaude (Anthropic), OpenAI Codex, GitHub Copilot
Surfacesgithub.com, GitHub Mobile, VS Code
GouvernanceAgent Control Plane (GA) — audit logs, politiques centralisées
Abonnement requisAucun supplémentaire (inclus dans Business/Pro)
SessionsAsynchrones avec logs détaillés

Activation pour Copilot Business : un admin doit activer les agents au niveau entreprise (Enterprise AI Controls → Agents → Partner Agents) ET au niveau organisation (Settings → Copilot → Coding agent → Partner Agents).

Chaque session d’agent consomme une “premium request” pendant la période de préversion publique. Les sessions s’utilisent depuis l’onglet Agents d’un dépôt, en assignant une issue à @claude ou @codex, ou en les mentionnant dans les commentaires de PR.

🔗 Claude and Codex now available for Copilot Business & Pro users


NVIDIA + Eli Lilly — LillyPod DGX SuperPOD

26 février — Eli Lilly inaugure LillyPod, le premier NVIDIA DGX SuperPOD équipé de systèmes DGX B300, construit en quatre mois. C’est la plus puissante AI factory entièrement détenue et opérée par une société pharmaceutique.

MétriqueValeur
GPUs1 016 NVIDIA Blackwell Ultra (DGX B300)
Performance>9 000 pétaflops IA
Délai de construction4 mois
Connexions réseau~5 000

LillyPod supporte l’entraînement de modèles de diffusion de protéines, de graph neural networks pour petites molécules, et de modèles de fondation en génomique. L’architecture repose sur NVIDIA DGX SuperPOD avec Spectrum-X Ethernet networking et NVIDIA Mission Control pour l’orchestration.

🔗 Blog NVIDIA — LillyPod


Codex CLI v0.106.0

26 février — OpenAI publie Codex CLI v0.106.0, une release stable avec plusieurs ajouts notables.

FonctionnalitéDétail
Script d’installation directNouveau script pour macOS et Linux, distribué comme asset GitHub Release
App-server v2 Realtime APIThread-scoped realtime endpoints et thread/unsubscribe flow
js_repl promu à /experimentalVérifications de compatibilité Node (minimum 22.22.0) au démarrage
request_user_input en mode DefaultPlus seulement disponible en mode Plan
gpt-5.3-codex visible dans CLIModèle maintenant affiché dans la liste pour les utilisateurs API
Mémoire diff-basedForgetting basé sur les diffs et sélection par usage

Parmi les corrections de bugs : un fix sécurité sur le chemin d’exécution zsh-fork qui pouvait contourner les wrappers sandbox, et un cap à 1 million de caractères sur les inputs TUI/app-server pour éviter les crashes sur paste massif.

🔗 Release v0.106.0


Claude Code v2.1.59 + v2.1.61

26 février — Claude Code publie les versions v2.1.59 et v2.1.61 avec des fonctionnalités notables.

v2.1.59 — Nouvelles fonctionnalités :

FonctionnalitéDescription
Auto-memoryClaude sauvegarde automatiquement le contexte utile en mémoire persistante. Gérable via /memory
Commande /copyPicker interactif quand des blocs de code sont présents — permet de sélectionner des blocs individuels ou la réponse complète
Suggestions “always allow”Meilleures suggestions pour les commandes bash composées (ex : cd /tmp && git fetch && git push)
Ordre des tâches courtesAmélioration de l’ordonnancement dans les sessions multi-agents
Fix MCP OAuthCorrection race condition lors de l’exécution de plusieurs instances Claude Code simultanément

v2.1.61 : correction des écritures concurrentes corrompant le fichier de config sur Windows.

🔗 CHANGELOG Claude Code


Nouvelles Anthropic : Open Source et Connectors

26 février — Anthropic annonce deux ouvertures complémentaires :

Claude for Open Source — Les mainteneurs et contributeurs principaux de projets open source populaires reçoivent 6 mois d’accès gratuit au plan Claude Max 20x. Boris Cherny (@bcherny), responsable de Claude Code, souligne que “beaucoup de ce qui rend Claude Code excellent vient des retours des développeurs OSS.”

Connectors sur plan gratuit — Les Connectors de Claude sont désormais accessibles aux utilisateurs du plan gratuit. Le catalogue compte plus de 150 connecteurs dans les catégories coding, data, design, finance, sales, et autres.

🔗 Tweet Lydia Hallie — Claude for Open Source 🔗 claude.com/connectors


GitHub Enterprise : gouvernance IA en GA

26 février — GitHub annonce la disponibilité générale (GA) des Enterprise AI Controls et de l’Agent Control Plane, la suite de gouvernance IA pour les administrateurs GitHub Enterprise.

Les fonctionnalités GA incluent : recherche et filtrage de l’activité des sessions d’agents (y compris agents tiers), suppression de la limite de 1 000 enregistrements pour les sessions des 24 dernières heures, API pour appliquer des définitions d’agents personnalisés à l’échelle de l’entreprise.

Reste en préversion publique : la gestion des allowlists MCP à l’échelle de l’entreprise.

🔗 Enterprise AI Controls & agent control plane now generally available


GitHub Mobile : sélecteur de modèle pour Copilot

26 février — GitHub Mobile lance un sélecteur de modèle pour les sessions d’agent Copilot. L’utilisateur peut désormais choisir entre Auto, Claude (Anthropic), OpenAI Codex et d’autres modèles au démarrage d’une session.

🔗 Tweet @github


Codex + Figma : workflow code→design→code

26 février — OpenAI Developers annonce une intégration entre Codex et Figma permettant un workflow bidirectionnel code→design→code. La fonctionnalité permet de générer des fichiers de design directement depuis du code, de collaborer dans Figma, puis d’implémenter les mises à jour dans Codex sans interrompre le flux de travail.

🔗 Tweet @OpenAIDevs


pplx-embed : embeddings SOTA de Perplexity

26 février — Perplexity lance deux familles de modèles d’embedding text : pplx-embed-v1 et pplx-embed-context-v1, disponibles en tailles 0,6B et 4B paramètres. Les modèles sont accessibles via l’API Perplexity et sur Hugging Face sous licence MIT.

BenchmarkScoreRéférence
ConTEB (contextual retrieval)81,96%Nouveau SOTA (vs voyage-context-3 79,45%)
MTEB Multilingual v2 (4B INT8)69,66% nDCG@10vs Gemini-embedding-001 67,71%
PPLXQuery2Query Recall@1073,5%vs Qwen3-Embedding-4B 67,9% (+5,6 pts)

Les modèles supportent la quantification INT8 (4x moins de stockage qu’FP32) et BINARY (32x moins). Aucun instruction prefix requis.

🔗 Article de recherche Perplexity


Gemini CLI v0.30.0 et Qwen 3.5 FP8

25 février — Gemini CLI publie sa version v0.30.0 avec trois axes de changements : l’introduction d’un SDK initial (@google/gemini-cli-sdk), un nouveau Policy Engine remplaçant --allowed-tools par un système de politiques granulaires, et des améliorations d’interface (thèmes Solarized, support Vim amélioré, suspension Ctrl-Z).

🔗 Gemini CLI Changelog

25 février — Alibaba publie les poids quantifiés FP8 de la série Qwen 3.5 Medium (35B-A3B, 122B-A10B, 27B), disponibles sur Hugging Face et ModelScope avec support natif vLLM et SGLang dès le jour 0. La quantification FP8 réduit significativement l’empreinte mémoire tout en préservant les performances.

🔗 Tweet @Alibaba_Qwen


En bref

  • Responses API champ phase (24 fév) — OpenAI ajoute le champ phase à la Responses API, permettant d’étiqueter les messages assistant comme commentary ou final_answer pour différencier les étapes de raisonnement intermédiaire de la réponse finale. 🔗 Changelog OpenAI API

  • GPT-5.3-Codex GA dans Copilot Chat (25 fév) — Disponible sur github.com, GitHub Mobile, VS Code et Visual Studio pour tous les abonnements Copilot payants. Les administrateurs Business/Enterprise doivent activer la politique dans les paramètres. 🔗 Changelog GitHub

  • NVIDIA AI Cybersecurity OT/ICS (23 fév) — Partenariats avec Akamai, Forescout, Palo Alto Networks, Siemens et Xage Security pour déployer l’IA dans la cybersécurité des technologies opérationnelles et des systèmes de contrôle industriels. 🔗 Blog NVIDIA


Ce que ça signifie

La déclaration de Dario Amodei sur le Département de la Guerre est inédite dans l’industrie IA. C’est la première fois qu’un CEO de lab frontier documente publiquement une pression gouvernementale pour supprimer des garde-fous éthiques, et refuse explicitement. Le label “risque de chaîne d’approvisionnement” mentionné par le DoW est habituellement réservé aux entreprises chinoises — son application potentielle à une entreprise américaine serait une escalade sans précédent.

Sur le terrain commercial, la journée du 26 février illustre la consolidation autour de quelques plateformes dominantes. GitHub unifie Claude, Codex et Copilot sur une seule surface avec gouvernance centralisée — c’est le modèle “agent marketplace” qui prend forme concrètement. L’intégration Perplexity sur Samsung suit la même logique : moins de nouveaux appareils à conquérir, plus d’intégrations profondes dans les plateformes existantes.

LillyPod chez Eli Lilly signale que l’IA en pharma passe à l’échelle industrielle : construire sa propre AI factory en 4 mois avec 1 016 GPUs Blackwell Ultra, c’est le signe que les grandes entreprises n’attendent plus le cloud pour les workloads les plus sensibles.


Sources