Anthropic révise en profondeur sa politique de sécurité avec une RSP v3.0 qui introduit une Frontier Safety Roadmap (feuille de route publique de sécurité) et des Risk Reports (rapports de risques) trimestriels avec revue externe. OpenAI met fin à la période d’accès limité de GPT-5.3-Codex, désormais disponible pour tous les développeurs via la Responses API. Meta signe un accord multi-annuel avec AMD pour ~6 GW de capacité GPU dédiés à ses modèles IA. Qwen lance quatre modèles MoE dont un 35B-A3B qui surpasse son propre modèle 235B. Claude Code introduit Remote Control pour continuer une session depuis son téléphone.
Anthropic : Responsible Scaling Policy v3.0
24 février — Anthropic publie la troisième version de sa Responsible Scaling Policy (RSP), le cadre volontaire encadrant les risques catastrophiques liés à ses modèles.
La RSP originale date de septembre 2023. En deux ans et demi, les modèles ont acquis de nouvelles capacités — navigation web, exécution de code, usage d’ordinateurs, actions autonomes multi-étapes — et chaque nouvelle capacité a amené de nouveaux risques à traiter.
Ce qui a fonctionné
La RSP a poussé Anthropic à développer des garde-fous plus robustes, comme les classifieurs pour bloquer le contenu lié aux armes biologiques requis pour ASL-3. Le standard ASL-3 a été activé en mai 2025 et est opérationnel. OpenAI et Google DeepMind ont adopté des frameworks similaires dans les mois suivant l’annonce initiale. Les RSP ont également contribué à informer des textes légaux (SB 53 en Californie, EU AI Act).
Ce qui n’a pas fonctionné
Les seuils de capacité se sont révélés plus ambigus que prévu — trancher si un modèle a “définitivement” franchi un seuil reste difficile dans la pratique. Les gouvernements n’ont pas suivi aussi rapidement que souhaité, dans un contexte politique peu favorable à la régulation. Certaines exigences des ASL élevés (ASL-4, ASL-5) pourraient être impossibles à satisfaire unilatéralement.
Trois changements clés dans RSP v3.0
La v3.0 distingue désormais ce qu’Anthropic s’engage à faire indépendamment des autres acteurs d’une part, et une cartographie capacités→mitigations que l’ensemble de l’industrie devrait adopter d’autre part.
Un second document publié en parallèle — la Frontier Safety Roadmap — fixe des objectifs publics concrets : lancer des projets R&D “moonshot” pour sécuriser les poids de modèles, développer un red-teaming automatisé surpassant des centaines de participants humains, établir des registres centralisés de toutes les activités critiques de développement IA.
Enfin, Anthropic s’engage à publier des Risk Reports tous les 3 à 6 mois : profil de sécurité des modèles, articulation capacités/menaces/mitigations, et pour les modèles les plus avancés, une revue par des experts indépendants avec accès non censuré au rapport.
“We’re updating our Responsible Scaling Policy to its third version. Since it came into effect in 2023, we’ve learned a lot about the RSP’s benefits and its shortcomings. This update improves the policy, reinforcing what worked and committing us to even greater transparency.”
🇫🇷 Nous mettons à jour notre Responsible Scaling Policy dans sa troisième version. Depuis son entrée en vigueur en 2023, nous avons beaucoup appris sur ses atouts et ses limites. Cette mise à jour améliore la politique en renforçant ce qui a fonctionné et en nous engageant vers encore plus de transparence. — @AnthropicAI sur X
OpenAI : GPT-5.3-Codex en disponibilité générale
24 février — GPT-5.3-Codex est désormais accessible à tous les développeurs via la Responses API d’OpenAI. Le modèle avait été lancé début février en accès limité ; il passe maintenant en disponibilité générale.
GPT-5.3-Codex combine performances de codage frontier et capacités de connaissance professionnelle dans un seul modèle. Selon les retours des premiers intégrateurs, il serait “significativement plus puissant et 3 à 4 fois plus efficace en tokens que GPT-5.2”. La plateforme Lovable a été parmi les premières à l’adopter pour ses cas d’usage les plus complexes.
Le modèle est également disponible via OpenRouter pour les développeurs qui souhaitent l’intégrer dans leurs workflows existants sans passer par l’API OpenAI directement.
| Élément | Détail |
|---|---|
| Disponibilité | Responses API (accès général) |
| Efficacité | 3-4x plus efficace en tokens vs GPT-5.2 |
| Accès alternatif | OpenRouter |
Meta + AMD : accord multi-annuel pour ~6 GW de GPU
24 février — Meta annonce un partenariat multi-annuel avec AMD pour intégrer les derniers GPU AMD Instinct dans son infrastructure mondiale.
Le déploiement prévoit environ 6 GW de capacité data center dédiée, avec pour objectif de développer des modèles d’IA de pointe et d’apporter une “intelligence artificielle personnelle superintelligente” à des milliards d’utilisateurs dans le monde.
“Today we’re announcing a multi-year agreement with @AMD to integrate their latest Instinct GPUs into our global infrastructure. With approximately 6GW of planned data center capacity dedicated to this deployment, we’re scaling our compute capacity to accelerate the development of cutting-edge AI models and deliver personal superintelligence to billions around the world.”
🇫🇷 Aujourd’hui, nous annonçons un accord multi-annuel avec @AMD pour intégrer leurs derniers GPU Instinct dans notre infrastructure mondiale. Avec environ 6 GW de capacité data center planifiée pour ce déploiement, nous augmentons notre capacité de calcul pour accélérer le développement de modèles d’IA de pointe et apporter une superintelligence personnelle à des milliards de personnes dans le monde. — @AIatMeta sur X
Cet accord marque une diversification significative des fournisseurs de GPU pour Meta, qui s’appuyait jusqu’ici principalement sur NVIDIA. Un contrat de cette ampleur — 6 GW, soit une infrastructure considérable pour un seul partenariat — est un signal fort sur les ambitions de Meta en matière de compute pour les modèles de prochaine génération.
Qwen 3.5 Medium Series : 4 modèles MoE, “More intelligence, less compute”
24 février — Alibaba Qwen lance la série Qwen 3.5 Medium, comprenant quatre modèles à architecture MoE (Mixture of Experts).
Le résultat le plus frappant est le Qwen3.5-35B-A3B : avec seulement 3B paramètres actifs (sur 35B au total), il surpasse Qwen3-235B-A22B — le géant précédent de la famille. L’architecture MoE et un entraînement RL à grande échelle permettent cette densité d’efficacité.
| Modèle | Paramètres actifs | Note |
|---|---|---|
| Qwen3.5-Flash | — | Contexte 1M tokens, outils intégrés, hébergé |
| Qwen3.5-35B-A3B | 3B actifs / 35B total | Surpasse Qwen3-235B-A22B |
| Qwen3.5-122B-A10B | 10B actifs / 122B total | — |
| Qwen3.5-27B | 27B | — |
Qwen3.5-Flash est la version hébergée de la série, avec un contexte d’un million de tokens par défaut et des outils intégrés. Les modèles sont disponibles sur HuggingFace, ModelScope et Qwen Chat.
Claude Code v2.1.51 : Remote Control depuis mobile
24 février — Claude Code v2.1.51 introduit remote-control, la feature la plus attendue de la version : continuer une session locale depuis son téléphone.
Commencée depuis le terminal, une session Claude Code peut être reprise sur l’app mobile Claude Code via /remote-control. La fonctionnalité est disponible pour les utilisateurs Max en research preview.
Au-delà du Remote Control, cette version apporte plusieurs améliorations techniques :
| Changement | Détail |
|---|---|
| Plugin marketplace timeout | Git : 30s → 120s, configurable via CLAUDE_CODE_PLUGIN_GIT_TIMEOUT_MS |
| npm registries | Support registres personnalisés et pinning de version pour plugins |
| BashTool | Skip login shell par défaut quand snapshot disponible |
| Hooks sécurité | Fix : statusLine et fileSuggestion hooks sans acceptation workspace trust |
| Réduction contexte | Tool results > 50K chars persistés sur disque (était 100K) |
Claude Cowork : marketplace privée de plugins et orchestration cross-apps
24 février — Anthropic lance une mise à jour majeure de Cowork avec des marketplaces privées de plugins pour les entreprises, de nouveaux connecteurs et une orchestration cross-applications.
Les admins peuvent désormais créer des marketplaces de plugins privées pour leur organisation : création depuis des templates ou depuis zéro, avec Claude qui guide la configuration. Un nouveau menu unifié “Customize” centralise plugins, skills et connecteurs (MCP). Les admins disposent aussi du provisionnement par utilisateur, de l’auto-install, et de sources de plugins depuis des repos GitHub privés (en bêta privée).
Côté connecteurs, la liste s’élargit avec Google Workspace (Calendar, Drive, Gmail), Docusign, Apollo, Clay, Outreach, Similarweb, MSCI, LegalZoom, FactSet, WordPress et Harvey. Des entreprises comme Slack, LSEG, S&P Global et Tribe AI ont aussi publié des plugins.
De nouveaux templates de plugins par département sont disponibles :
| Département | Exemples de workflows |
|---|---|
| RH | Lettres d’offre, onboarding, évaluations performance |
| Design | Critiques UX, audits accessibilité, plans recherche utilisateur |
| Engineering | Standups, incident response, checklists deploy, postmortems |
| Opérations | Documentation processus, évaluation fournisseurs |
| Finance | Analyse de marché, modélisation financière, slides PowerPoint |
| Investment Banking | Documents de transaction, analyses comparables |
| Private Equity | Due diligence, scoring par critères d’investissement |
Claude peut maintenant aussi orchestrer des tâches entre Excel et PowerPoint — analyser des données dans Excel puis générer une présentation dans PowerPoint, en passant le contexte d’un add-in à l’autre. Cette fonctionnalité est disponible en research preview pour tous les plans payants sur Mac et Windows.
Enfin, le support OpenTelemetry permet aux admins de suivre l’usage, les coûts et l’activité des outils par équipe.
🔗 Blog Cowork plugins enterprise 🔗 Tweet @claudeai
OpenAI : Codex CLI v0.99.0
24 février — Codex CLI passe en version 0.99.0 avec plusieurs nouvelles fonctionnalités.
La commande /statusline permet désormais de personnaliser les métadonnées affichées dans le footer de l’interface TUI. Les images GIF et WebP sont acceptées en pièces jointes. L’exécution de commandes shell directes ne bloque plus un tour en cours — elles peuvent s’exécuter en concurrence. Le snapshot de l’environnement shell et des fichiers de configuration rc est désormais activé.
| Feature | Détail |
|---|---|
/statusline | Configurer le footer TUI interactivement |
| Images GIF/WebP | Nouveaux formats acceptés en pièces jointes |
| Shell snapshot | Snapshot de l’environnement shell et rc files |
| App-server APIs | Turn/steer, feature discovery, resume_agent |
| Web search control | Modes restreints via requirements.toml (Enterprise) |
Une correction de sécurité (RUSTSEC-2026-0009) est également incluse.
npm install -g @openai/codex@0.99.0
DeepSeek-V3.2 : version officielle
24 février — DeepSeek annonce la version officielle de DeepSeek-V3.2, succédant à la version expérimentale V3.2-Exp de novembre 2025.
Selon la bannière de la homepage deepseek.com, la V3.2 renforce les capacités Agent et intègre du raisonnement réfléchi (thinking/reasoning). La version est disponible sur web, app mobile et API. Le détail technique complet est publié sur WeChat (canal d’annonce principal de DeepSeek en chinois).
Perplexity et Comet : mode vocal pour tous
24 février — Perplexity déploie une mise à jour significative de son mode vocal sur Perplexity et son navigateur Comet, disponible pour l’ensemble des utilisateurs — pas uniquement les abonnés.
Le nouveau mode vocal de Comet permet d’interroger l’IA sur ce qui est affiché à l’écran, de naviguer entre sites web à la voix, et de maintenir une conversation cohérente sur plusieurs onglets sans perdre le contexte. Cette persistance contextuelle multi-onglets est un avancement par rapport aux assistants vocaux classiques.
| Aspect | Détail |
|---|---|
| Disponibilité | Tous les utilisateurs (pas uniquement abonnés) |
| Plateformes | Android, Mac, Windows |
| Fonctionnalité clé | Navigation vocale multi-onglets avec contexte persistant |
🔗 Tweet @perplexity_ai 🔗 Tweet @comet
Google DeepMind : Music AI Sandbox × Wyclef Jean
24 février — Google DeepMind et YouTube dévoilent une collaboration avec le producteur et artiste Wyclef Jean autour de Music AI Sandbox.
Music AI Sandbox — propulsé par Lyria 3, le modèle de génération musicale annoncé le 18 février — permet aux musiciens professionnels d’expérimenter l’IA comme partenaire créatif. Wyclef Jean a utilisé ces outils pour développer sa chanson “Back from Abu Dhabi”. Le processus de création est documenté dans une vidéo disponible sur YouTube.
Ce partenariat s’inscrit dans une série de collaborations artiste initiée par Google DeepMind pour explorer les usages créatifs de l’IA musicale en conditions réelles de studio.
🔗 Tweet @GoogleAI 🔗 Tweet @GoogleDeepMind
Google DeepMind : Robotics Accelerator en Europe
24 février — Google DeepMind annonce le lancement de son Robotics Accelerator en Europe, un programme dédié aux startups du secteur de la robotique.
L’objectif déclaré est de combler l’écart entre la technologie et les débouchés commerciaux, et d’accélérer la prochaine génération d’agents physiques. Le programme est présenté comme taillé pour les startups, avec accès aux ressources et à l’expertise de Google DeepMind.
NVIDIA + Red Hat : AI Factory pour l’entreprise
24 février — Red Hat et NVIDIA annoncent conjointement le Red Hat AI Factory with NVIDIA, une solution combinée pour accélérer l’adoption de l’IA en entreprise.
La plateforme réunit Red Hat AI Enterprise (orchestration et déploiement de modèles) avec NVIDIA AI Enterprise (couche logicielle optimisée pour GPU NVIDIA). L’objectif est de réduire la complexité opérationnelle et le coût total de possession pour les organisations qui déploient des applications IA en production.
Black Forest Labs : Safety Evaluation — 10x moins de vulnérabilités
24 février — Black Forest Labs publie les résultats d’une évaluation tierce indépendante des risques émergents pour ses modèles FLUX.
Les résultats montrent plus de 10x moins de vulnérabilités que les autres modèles image open-weight populaires. BFL affirme que haute performance, innovation ouverte et garde-fous peuvent aller de pair — une démarche de transparence rare dans l’industrie des modèles image open source.
En bref
Claude Code v2.1.52 — Patch ciblé publié dans la foulée de la v2.1.51 : fix d’un crash de l’extension VS Code sur Windows (command 'claude-vscode.editor.openLast' not found). Aucun nouveau feature.
GitHub Copilot SDK — agent PowerPoint — GitHub partage une démo (23 février) montrant comment construire un agent avec le Copilot SDK capable de rechercher les dernières docs, analyser des slides existants pour reproduire leur style, et générer de nouvelles slides directement dans PowerPoint. 🔗 Tweet @github
Runway — Interior Designer — Runway présente un cas d’usage créatif : transformer une photo de pièce en design d’intérieur personnalisé via une combinaison de Nano Banana Pro, Kling 3.0 et Gen-4.5. Une démo marketing illustrant la plateforme multi-modèles lancée le 20 février. 🔗 Tweet @runwayml
Ce que ça signifie
La RSP v3.0 d’Anthropic marque un tournant dans l’approche de la sécurité IA : en rendant publics ses objectifs via la Frontier Safety Roadmap et en s’engageant à des Risk Reports avec revue externe, Anthropic passe d’une politique interne à un mécanisme de responsabilité publique. C’est une pression douce sur l’ensemble de l’industrie — et une réponse implicite aux critiques sur l’opacité des décisions de déploiement.
L’accord Meta+AMD à 6 GW est un signal d’alarme pour NVIDIA : le seul fournisseur de GPU utilisé jusqu’ici par Meta commence à être concurrencé frontalement. Pour AMD, c’est une validation à grande échelle de ses GPU Instinct qui peinent encore à s’imposer face aux H100/H200 dans les workloads d’entraînement.
Qwen 3.5 Medium confirme que l’architecture MoE n’est plus l’apanage des très grands modèles : un 35B-A3B qui surpasse un 235B, c’est une compression d’intelligence remarquable, accessible à ceux qui n’ont pas l’infrastructure pour faire tourner les géants.
Sources
- RSP v3.0 — Anthropic
- Tweet @AnthropicAI — RSP v3.0
- Tweet @OpenAIDevs — GPT-5.3-Codex GA
- Tweet @OpenAIDevs — Lovable + OpenRouter
- Tweet @AIatMeta — Meta + AMD
- Tweet @Alibaba_Qwen — Qwen 3.5 Medium
- Tweet @noahzweben — Claude Code Remote Control
- CHANGELOG Claude Code
- Blog Cowork plugins enterprise
- Tweet @claudeai — Cowork
- Codex CLI Changelog v0.99.0
- deepseek.com — bannière V3.2
- Tweet @perplexity_ai — voice mode
- Tweet @comet — voice mode
- Tweet @GoogleAI — Music AI Sandbox × Wyclef Jean
- Tweet @GoogleDeepMind — Music AI Sandbox
- Tweet @GoogleDeepMind — Robotics Accelerator
- Tweet @NVIDIAAI — Red Hat AI Factory
- Tweet @RedHat — Red Hat AI Factory
- Tweet @bfl_ml — Safety Evaluation
- Tweet @github — Copilot SDK PowerPoint
- Tweet @runwayml — Interior Designer