Rechercher

RSP v3.0 chez Anthropic, GPT-5.3-Codex disponible pour tous, Meta signe 6 GW de GPU avec AMD

RSP v3.0 chez Anthropic, GPT-5.3-Codex disponible pour tous, Meta signe 6 GW de GPU avec AMD

Anthropic révise en profondeur sa politique de sécurité avec une RSP v3.0 qui introduit une Frontier Safety Roadmap (feuille de route publique de sécurité) et des Risk Reports (rapports de risques) trimestriels avec revue externe. OpenAI met fin à la période d’accès limité de GPT-5.3-Codex, désormais disponible pour tous les développeurs via la Responses API. Meta signe un accord multi-annuel avec AMD pour ~6 GW de capacité GPU dédiés à ses modèles IA. Qwen lance quatre modèles MoE dont un 35B-A3B qui surpasse son propre modèle 235B. Claude Code introduit Remote Control pour continuer une session depuis son téléphone.


Anthropic : Responsible Scaling Policy v3.0

24 février — Anthropic publie la troisième version de sa Responsible Scaling Policy (RSP), le cadre volontaire encadrant les risques catastrophiques liés à ses modèles.

La RSP originale date de septembre 2023. En deux ans et demi, les modèles ont acquis de nouvelles capacités — navigation web, exécution de code, usage d’ordinateurs, actions autonomes multi-étapes — et chaque nouvelle capacité a amené de nouveaux risques à traiter.

Ce qui a fonctionné

La RSP a poussé Anthropic à développer des garde-fous plus robustes, comme les classifieurs pour bloquer le contenu lié aux armes biologiques requis pour ASL-3. Le standard ASL-3 a été activé en mai 2025 et est opérationnel. OpenAI et Google DeepMind ont adopté des frameworks similaires dans les mois suivant l’annonce initiale. Les RSP ont également contribué à informer des textes légaux (SB 53 en Californie, EU AI Act).

Ce qui n’a pas fonctionné

Les seuils de capacité se sont révélés plus ambigus que prévu — trancher si un modèle a “définitivement” franchi un seuil reste difficile dans la pratique. Les gouvernements n’ont pas suivi aussi rapidement que souhaité, dans un contexte politique peu favorable à la régulation. Certaines exigences des ASL élevés (ASL-4, ASL-5) pourraient être impossibles à satisfaire unilatéralement.

Trois changements clés dans RSP v3.0

La v3.0 distingue désormais ce qu’Anthropic s’engage à faire indépendamment des autres acteurs d’une part, et une cartographie capacités→mitigations que l’ensemble de l’industrie devrait adopter d’autre part.

Un second document publié en parallèle — la Frontier Safety Roadmap — fixe des objectifs publics concrets : lancer des projets R&D “moonshot” pour sécuriser les poids de modèles, développer un red-teaming automatisé surpassant des centaines de participants humains, établir des registres centralisés de toutes les activités critiques de développement IA.

Enfin, Anthropic s’engage à publier des Risk Reports tous les 3 à 6 mois : profil de sécurité des modèles, articulation capacités/menaces/mitigations, et pour les modèles les plus avancés, une revue par des experts indépendants avec accès non censuré au rapport.

“We’re updating our Responsible Scaling Policy to its third version. Since it came into effect in 2023, we’ve learned a lot about the RSP’s benefits and its shortcomings. This update improves the policy, reinforcing what worked and committing us to even greater transparency.”

🇫🇷 Nous mettons à jour notre Responsible Scaling Policy dans sa troisième version. Depuis son entrée en vigueur en 2023, nous avons beaucoup appris sur ses atouts et ses limites. Cette mise à jour améliore la politique en renforçant ce qui a fonctionné et en nous engageant vers encore plus de transparence.@AnthropicAI sur X

🔗 RSP v3.0 (Anthropic)


OpenAI : GPT-5.3-Codex en disponibilité générale

24 février — GPT-5.3-Codex est désormais accessible à tous les développeurs via la Responses API d’OpenAI. Le modèle avait été lancé début février en accès limité ; il passe maintenant en disponibilité générale.

GPT-5.3-Codex combine performances de codage frontier et capacités de connaissance professionnelle dans un seul modèle. Selon les retours des premiers intégrateurs, il serait “significativement plus puissant et 3 à 4 fois plus efficace en tokens que GPT-5.2”. La plateforme Lovable a été parmi les premières à l’adopter pour ses cas d’usage les plus complexes.

Le modèle est également disponible via OpenRouter pour les développeurs qui souhaitent l’intégrer dans leurs workflows existants sans passer par l’API OpenAI directement.

ÉlémentDétail
DisponibilitéResponses API (accès général)
Efficacité3-4x plus efficace en tokens vs GPT-5.2
Accès alternatifOpenRouter

🔗 Tweet @OpenAIDevs


Meta + AMD : accord multi-annuel pour ~6 GW de GPU

24 février — Meta annonce un partenariat multi-annuel avec AMD pour intégrer les derniers GPU AMD Instinct dans son infrastructure mondiale.

Le déploiement prévoit environ 6 GW de capacité data center dédiée, avec pour objectif de développer des modèles d’IA de pointe et d’apporter une “intelligence artificielle personnelle superintelligente” à des milliards d’utilisateurs dans le monde.

“Today we’re announcing a multi-year agreement with @AMD to integrate their latest Instinct GPUs into our global infrastructure. With approximately 6GW of planned data center capacity dedicated to this deployment, we’re scaling our compute capacity to accelerate the development of cutting-edge AI models and deliver personal superintelligence to billions around the world.”

🇫🇷 Aujourd’hui, nous annonçons un accord multi-annuel avec @AMD pour intégrer leurs derniers GPU Instinct dans notre infrastructure mondiale. Avec environ 6 GW de capacité data center planifiée pour ce déploiement, nous augmentons notre capacité de calcul pour accélérer le développement de modèles d’IA de pointe et apporter une superintelligence personnelle à des milliards de personnes dans le monde.@AIatMeta sur X

Cet accord marque une diversification significative des fournisseurs de GPU pour Meta, qui s’appuyait jusqu’ici principalement sur NVIDIA. Un contrat de cette ampleur — 6 GW, soit une infrastructure considérable pour un seul partenariat — est un signal fort sur les ambitions de Meta en matière de compute pour les modèles de prochaine génération.

🔗 Tweet @AIatMeta


Qwen 3.5 Medium Series : 4 modèles MoE, “More intelligence, less compute”

24 février — Alibaba Qwen lance la série Qwen 3.5 Medium, comprenant quatre modèles à architecture MoE (Mixture of Experts).

Le résultat le plus frappant est le Qwen3.5-35B-A3B : avec seulement 3B paramètres actifs (sur 35B au total), il surpasse Qwen3-235B-A22B — le géant précédent de la famille. L’architecture MoE et un entraînement RL à grande échelle permettent cette densité d’efficacité.

ModèleParamètres actifsNote
Qwen3.5-FlashContexte 1M tokens, outils intégrés, hébergé
Qwen3.5-35B-A3B3B actifs / 35B totalSurpasse Qwen3-235B-A22B
Qwen3.5-122B-A10B10B actifs / 122B total
Qwen3.5-27B27B

Qwen3.5-Flash est la version hébergée de la série, avec un contexte d’un million de tokens par défaut et des outils intégrés. Les modèles sont disponibles sur HuggingFace, ModelScope et Qwen Chat.

🔗 Tweet @Alibaba_Qwen


Claude Code v2.1.51 : Remote Control depuis mobile

24 février — Claude Code v2.1.51 introduit remote-control, la feature la plus attendue de la version : continuer une session locale depuis son téléphone.

Commencée depuis le terminal, une session Claude Code peut être reprise sur l’app mobile Claude Code via /remote-control. La fonctionnalité est disponible pour les utilisateurs Max en research preview.

Au-delà du Remote Control, cette version apporte plusieurs améliorations techniques :

ChangementDétail
Plugin marketplace timeoutGit : 30s → 120s, configurable via CLAUDE_CODE_PLUGIN_GIT_TIMEOUT_MS
npm registriesSupport registres personnalisés et pinning de version pour plugins
BashToolSkip login shell par défaut quand snapshot disponible
Hooks sécuritéFix : statusLine et fileSuggestion hooks sans acceptation workspace trust
Réduction contexteTool results > 50K chars persistés sur disque (était 100K)

🔗 CHANGELOG Claude Code


Claude Cowork : marketplace privée de plugins et orchestration cross-apps

24 février — Anthropic lance une mise à jour majeure de Cowork avec des marketplaces privées de plugins pour les entreprises, de nouveaux connecteurs et une orchestration cross-applications.

Les admins peuvent désormais créer des marketplaces de plugins privées pour leur organisation : création depuis des templates ou depuis zéro, avec Claude qui guide la configuration. Un nouveau menu unifié “Customize” centralise plugins, skills et connecteurs (MCP). Les admins disposent aussi du provisionnement par utilisateur, de l’auto-install, et de sources de plugins depuis des repos GitHub privés (en bêta privée).

Côté connecteurs, la liste s’élargit avec Google Workspace (Calendar, Drive, Gmail), Docusign, Apollo, Clay, Outreach, Similarweb, MSCI, LegalZoom, FactSet, WordPress et Harvey. Des entreprises comme Slack, LSEG, S&P Global et Tribe AI ont aussi publié des plugins.

De nouveaux templates de plugins par département sont disponibles :

DépartementExemples de workflows
RHLettres d’offre, onboarding, évaluations performance
DesignCritiques UX, audits accessibilité, plans recherche utilisateur
EngineeringStandups, incident response, checklists deploy, postmortems
OpérationsDocumentation processus, évaluation fournisseurs
FinanceAnalyse de marché, modélisation financière, slides PowerPoint
Investment BankingDocuments de transaction, analyses comparables
Private EquityDue diligence, scoring par critères d’investissement

Claude peut maintenant aussi orchestrer des tâches entre Excel et PowerPoint — analyser des données dans Excel puis générer une présentation dans PowerPoint, en passant le contexte d’un add-in à l’autre. Cette fonctionnalité est disponible en research preview pour tous les plans payants sur Mac et Windows.

Enfin, le support OpenTelemetry permet aux admins de suivre l’usage, les coûts et l’activité des outils par équipe.

🔗 Blog Cowork plugins enterprise 🔗 Tweet @claudeai


OpenAI : Codex CLI v0.99.0

24 février — Codex CLI passe en version 0.99.0 avec plusieurs nouvelles fonctionnalités.

La commande /statusline permet désormais de personnaliser les métadonnées affichées dans le footer de l’interface TUI. Les images GIF et WebP sont acceptées en pièces jointes. L’exécution de commandes shell directes ne bloque plus un tour en cours — elles peuvent s’exécuter en concurrence. Le snapshot de l’environnement shell et des fichiers de configuration rc est désormais activé.

FeatureDétail
/statuslineConfigurer le footer TUI interactivement
Images GIF/WebPNouveaux formats acceptés en pièces jointes
Shell snapshotSnapshot de l’environnement shell et rc files
App-server APIsTurn/steer, feature discovery, resume_agent
Web search controlModes restreints via requirements.toml (Enterprise)

Une correction de sécurité (RUSTSEC-2026-0009) est également incluse.

npm install -g @openai/codex@0.99.0

🔗 Codex Changelog v0.99.0


DeepSeek-V3.2 : version officielle

24 février — DeepSeek annonce la version officielle de DeepSeek-V3.2, succédant à la version expérimentale V3.2-Exp de novembre 2025.

Selon la bannière de la homepage deepseek.com, la V3.2 renforce les capacités Agent et intègre du raisonnement réfléchi (thinking/reasoning). La version est disponible sur web, app mobile et API. Le détail technique complet est publié sur WeChat (canal d’annonce principal de DeepSeek en chinois).

🔗 deepseek.com


Perplexity et Comet : mode vocal pour tous

24 février — Perplexity déploie une mise à jour significative de son mode vocal sur Perplexity et son navigateur Comet, disponible pour l’ensemble des utilisateurs — pas uniquement les abonnés.

Le nouveau mode vocal de Comet permet d’interroger l’IA sur ce qui est affiché à l’écran, de naviguer entre sites web à la voix, et de maintenir une conversation cohérente sur plusieurs onglets sans perdre le contexte. Cette persistance contextuelle multi-onglets est un avancement par rapport aux assistants vocaux classiques.

AspectDétail
DisponibilitéTous les utilisateurs (pas uniquement abonnés)
PlateformesAndroid, Mac, Windows
Fonctionnalité cléNavigation vocale multi-onglets avec contexte persistant

🔗 Tweet @perplexity_ai 🔗 Tweet @comet


Google DeepMind : Music AI Sandbox × Wyclef Jean

24 février — Google DeepMind et YouTube dévoilent une collaboration avec le producteur et artiste Wyclef Jean autour de Music AI Sandbox.

Music AI Sandbox — propulsé par Lyria 3, le modèle de génération musicale annoncé le 18 février — permet aux musiciens professionnels d’expérimenter l’IA comme partenaire créatif. Wyclef Jean a utilisé ces outils pour développer sa chanson “Back from Abu Dhabi”. Le processus de création est documenté dans une vidéo disponible sur YouTube.

Ce partenariat s’inscrit dans une série de collaborations artiste initiée par Google DeepMind pour explorer les usages créatifs de l’IA musicale en conditions réelles de studio.

🔗 Tweet @GoogleAI 🔗 Tweet @GoogleDeepMind


Google DeepMind : Robotics Accelerator en Europe

24 février — Google DeepMind annonce le lancement de son Robotics Accelerator en Europe, un programme dédié aux startups du secteur de la robotique.

L’objectif déclaré est de combler l’écart entre la technologie et les débouchés commerciaux, et d’accélérer la prochaine génération d’agents physiques. Le programme est présenté comme taillé pour les startups, avec accès aux ressources et à l’expertise de Google DeepMind.

🔗 Tweet @GoogleDeepMind


NVIDIA + Red Hat : AI Factory pour l’entreprise

24 février — Red Hat et NVIDIA annoncent conjointement le Red Hat AI Factory with NVIDIA, une solution combinée pour accélérer l’adoption de l’IA en entreprise.

La plateforme réunit Red Hat AI Enterprise (orchestration et déploiement de modèles) avec NVIDIA AI Enterprise (couche logicielle optimisée pour GPU NVIDIA). L’objectif est de réduire la complexité opérationnelle et le coût total de possession pour les organisations qui déploient des applications IA en production.

🔗 Tweet @NVIDIAAI


Black Forest Labs : Safety Evaluation — 10x moins de vulnérabilités

24 février — Black Forest Labs publie les résultats d’une évaluation tierce indépendante des risques émergents pour ses modèles FLUX.

Les résultats montrent plus de 10x moins de vulnérabilités que les autres modèles image open-weight populaires. BFL affirme que haute performance, innovation ouverte et garde-fous peuvent aller de pair — une démarche de transparence rare dans l’industrie des modèles image open source.

🔗 Tweet @bfl_ml


En bref

Claude Code v2.1.52 — Patch ciblé publié dans la foulée de la v2.1.51 : fix d’un crash de l’extension VS Code sur Windows (command 'claude-vscode.editor.openLast' not found). Aucun nouveau feature.

GitHub Copilot SDK — agent PowerPoint — GitHub partage une démo (23 février) montrant comment construire un agent avec le Copilot SDK capable de rechercher les dernières docs, analyser des slides existants pour reproduire leur style, et générer de nouvelles slides directement dans PowerPoint. 🔗 Tweet @github

Runway — Interior Designer — Runway présente un cas d’usage créatif : transformer une photo de pièce en design d’intérieur personnalisé via une combinaison de Nano Banana Pro, Kling 3.0 et Gen-4.5. Une démo marketing illustrant la plateforme multi-modèles lancée le 20 février. 🔗 Tweet @runwayml


Ce que ça signifie

La RSP v3.0 d’Anthropic marque un tournant dans l’approche de la sécurité IA : en rendant publics ses objectifs via la Frontier Safety Roadmap et en s’engageant à des Risk Reports avec revue externe, Anthropic passe d’une politique interne à un mécanisme de responsabilité publique. C’est une pression douce sur l’ensemble de l’industrie — et une réponse implicite aux critiques sur l’opacité des décisions de déploiement.

L’accord Meta+AMD à 6 GW est un signal d’alarme pour NVIDIA : le seul fournisseur de GPU utilisé jusqu’ici par Meta commence à être concurrencé frontalement. Pour AMD, c’est une validation à grande échelle de ses GPU Instinct qui peinent encore à s’imposer face aux H100/H200 dans les workloads d’entraînement.

Qwen 3.5 Medium confirme que l’architecture MoE n’est plus l’apanage des très grands modèles : un 35B-A3B qui surpasse un 235B, c’est une compression d’intelligence remarquable, accessible à ceux qui n’ont pas l’infrastructure pour faire tourner les géants.


Sources