Anthropic publie aujourd’hui un rapport détaillant des campagnes de distillation industrielle menées par trois laboratoires chinois — DeepSeek, Moonshot AI et MiniMax — qui ont collecté plus de 16 millions d’échanges avec Claude via 24 000 comptes frauduleux. OpenAI annonce de son côté abandonner SWE-bench Verified comme référence pour ses modèles frontier, après avoir prouvé que 59,4 % des tests du benchmark sont défectueux et que plusieurs modèles de pointe ont mémorisé les corrections de référence durant l’entraînement. Du côté des outils, gpt-realtime-1.5 améliore la Realtime API vocale, les WebSockets arrivent dans la Responses API pour les agents longue durée, et Gemini déploie de nouveaux templates Veo 3.1 pour la création vidéo.
Anthropic : des attaques de distillation industrielle par trois laboratoires chinois
23 février — Anthropic publie un rapport révélant que DeepSeek, Moonshot AI (Kimi) et MiniMax ont mené des campagnes de distillation illicite à grande échelle contre les modèles Claude.
Ce qui s’est passé
Les trois laboratoires ont créé environ 24 000 comptes frauduleux pour générer plus de 16 millions d’échanges avec Claude via l’API, en violation des conditions d’utilisation d’Anthropic et des restrictions d’accès régionales — la Chine n’a pas accès commercial à Claude.
La technique utilisée, la distillation de modèle, consiste à entraîner un modèle moins performant sur les sorties d’un modèle plus capable. Légitime quand utilisée en interne, elle devient illicite quand des concurrents extraient les capacités d’un autre laboratoire sans autorisation.
Volume par laboratoire
| Lab | Volume d’échanges | Cibles principales |
|---|---|---|
| DeepSeek | +150 000 échanges | Raisonnement, grading de rubrique, alternatives censorship-safe |
| Moonshot AI (Kimi) | +3,4 millions d’échanges | Raisonnement agentique, coding, computer use, vision |
| MiniMax | +13 millions d’échanges | Coding agentique, tool use, orchestration |
Techniques notables
La campagne DeepSeek se distingue par ses prompts demandant à Claude d’articuler son raisonnement interne étape par étape — générant ainsi des données d’entraînement de type chain-of-thought à grande échelle. Anthropic a aussi détecté des tâches visant à entraîner DeepSeek à proposer des alternatives à des questions politiquement sensibles.
Anthropic a détecté la campagne MiniMax pendant qu’elle était encore active. Quand Anthropic a sorti un nouveau modèle, MiniMax a redirigé en 24 heures près de la moitié de son trafic vers le nouveau système — ce qui démontre une surveillance automatisée des sorties d’Anthropic.
L’infrastructure utilisée repose sur des architectures “hydra cluster” : des réseaux de comptes frauduleux distribuant le trafic sur l’API et des plateformes cloud tierces. Un seul réseau proxy gérait plus de 20 000 comptes simultanément.
Réponse d’Anthropic
Anthropic met en place plusieurs contre-mesures : classificateurs et systèmes de fingerprinting comportemental pour détecter les patterns de distillation, partage de données techniques avec d’autres laboratoires, fournisseurs cloud et autorités, renforcement des vérifications pour les comptes éducatifs et de recherche, et développement de contre-mesures au niveau produit, API et modèle.
“These labs created over 24,000 fraudulent accounts and generated over 16 million exchanges with Claude, extracting its capabilities to train and improve their own models.”
🇫🇷 Ces laboratoires ont créé plus de 24 000 comptes frauduleux et généré plus de 16 millions d’échanges avec Claude, extrayant ses capacités pour entraîner et améliorer leurs propres modèles. — @AnthropicAI sur X
🔗 Rapport Anthropic 🔗 Annonce @AnthropicAI
OpenAI abandonne SWE-bench Verified : 59,4 % de tests défectueux
23 février — OpenAI publie une analyse expliquant pourquoi l’entreprise ne reportera plus de scores SWE-bench Verified et recommande à l’industrie d’en faire de même.
Contexte
Depuis sa création en août 2024, SWE-bench Verified est devenu le standard de référence pour mesurer les progrès des modèles sur des tâches de développement logiciel autonome. Après une progression rapide — de 0 % à 75 % en un an — les scores stagnent entre 74,9 % et 80,9 % sur les six derniers mois. OpenAI a mené un audit approfondi pour comprendre si ce plafonnement reflète les limites des modèles ou des défauts du benchmark lui-même.
Résultats de l’audit : deux problèmes majeurs
Sur un sous-ensemble de 138 problèmes audités (27,6 % du dataset), au moins 59,4 % présentent des tests qui rejettent des solutions fonctionnellement correctes. La répartition des défauts :
| Type de défaut | Part des cas défectueux |
|---|---|
| Tests trop restrictifs sur les détails d’implémentation | 35,5 % |
| Tests de fonctionnalités non spécifiées dans l’énoncé | 18,8 % |
| Autres défauts (flaky tests, specs ambiguës) | 5,1 % |
Le second problème est la contamination des données d’entraînement : les problèmes SWE-bench proviennent de dépôts open source largement utilisés pour l’entraînement. Via un pipeline de red-teaming automatisé, OpenAI a démontré que GPT-5.2, Claude Opus 4.5 et Gemini 3 Flash Preview sont tous capables de reproduire verbatim les corrections de référence (gold patches) pour certains problèmes — preuve que ces exemples ont été vus durant l’entraînement.
Recommandations
OpenAI a cessé de reporter des scores SWE-bench Verified et recommande d’utiliser SWE-bench Pro à la place — son split public présente significativement moins de contamination. L’entreprise appelle aussi la communauté académique à investir dans des benchmarks privés non contaminés, comme GDPVal (tâches rédigées par des experts de domaine avec notation holistique).
OpenAI : gpt-realtime-1.5 et WebSockets dans la Responses API
gpt-realtime-1.5 dans la Realtime API
23 février — OpenAI annonce la disponibilité de gpt-realtime-1.5 dans la Realtime API. Ce nouveau modèle vocal remplace la version précédente et apporte des améliorations pour les applications conversationnelles en temps réel.
gpt-realtime-1.5 offre un meilleur suivi des instructions, une utilisation des outils plus fiable, et une meilleure précision multilingue. Des partenaires comme Genspark ont mesuré des résultats concrets lors de la phase alpha : hausse du taux de connexion humaine de 43,7 % à 66 %, et un taux de précision de 97,9 % sur les conversations évaluées. Le modèle est disponible directement dans la Realtime API existante sans changement d’infrastructure.
WebSockets dans la Responses API
23 février — OpenAI introduit le support WebSockets dans la Responses API, pensé pour les agents à longue durée d’exécution avec des appels d’outils intensifs.
Une connexion WebSocket persistante permet d’envoyer uniquement les nouveaux inputs à chaque tour, sans retransmettre l’intégralité du contexte à chaque requête. L’état est maintenu en mémoire entre les interactions, ce qui évite les recalculs redondants. Selon OpenAI, cette approche accélère les runs agentiques comportant 20 appels d’outils ou plus de 20 à 40 %.
Anthropic : The AI Fluency Index
23 février — Anthropic publie “The AI Fluency Index”, un rapport de recherche qui mesure la maîtrise de l’IA parmi les utilisateurs de Claude en analysant leurs comportements réels.
L’étude a suivi 11 comportements distincts à travers des milliers de conversations sur Claude.ai — par exemple, la fréquence à laquelle les utilisateurs itèrent et affinent leur travail avec Claude — pour mesurer comment les personnes développent une compétence effective avec l’IA dans la pratique. Le rapport s’inscrit dans une démarche d’éducation et de compréhension de l’adoption de l’IA, au-delà des simples métriques d’utilisation.
“We tracked 11 behaviors across thousands of Claude.ai conversations—for example, how often people iterate and refine their work with Claude—to measure how people actually develop AI skill in practice.”
🇫🇷 Nous avons suivi 11 comportements à travers des milliers de conversations Claude.ai — par exemple, la fréquence à laquelle les gens itèrent et affinent leur travail avec Claude — pour mesurer comment les gens développent réellement une compétence en IA dans la pratique. — @AnthropicAI sur X
Gemini : nouveaux templates Veo 3.1 pour la création vidéo
23 février — Google déploie de nouveaux templates pour Veo 3.1 dans l’application Gemini, simplifiant la création vidéo par IA pour tous les utilisateurs.
Pour y accéder : ouvrir gemini.google ou l’application mobile, puis sélectionner “Create videos” dans le menu des outils. La galerie de templates s’affiche, et chaque modèle peut être personnalisé avec une photo de référence et/ou une description textuelle.
Cette annonce s’inscrit dans une semaine dense pour l’écosystème Gemini : le 19 février, Google avait lancé Gemini 3.1 Pro avec un score de 77,1 % sur ARC-AGI-2, et le 18 février, Lyria 3 avait introduit la génération musicale directement dans l’app. Les templates Veo 3.1 complètent cette expansion vers la création multimodale au sein d’une seule application.
Pika AI Selves : une série documentaire réalisée de façon autonome par des agents IA
23 février — Pika annonce que ses “AI Selves” — des extensions IA de la personnalité et des compétences d’un créateur — ont dirigé et édité de façon autonome leur propre série documentaire, sur le thème de leur collaboration avec les humains chez Pika.
Le concept “AI Self” de Pika se distingue des agents IA classiques : plutôt qu’un outil qui exécute des tâches, un “AI Self” serait une extension incorporant les compétences, la personnalité et le goût esthétique d’un créateur spécifique. La démonstration prend la forme d’une série documentaire entièrement réalisée par ces entités IA, sans intervention humaine dans le montage et la direction.
Ce que ça signifie
L’affaire de distillation révélée par Anthropic dépasse la simple violation de conditions d’utilisation : elle documente pour la première fois à grande échelle comment des laboratoires concurrents extraient systématiquement les capacités d’un modèle frontier. La sophistication de l’opération MiniMax — redirection de trafic en 24 heures vers un nouveau modèle, infrastructure “hydra” à 20 000 comptes — suggère une surveillance continue et automatisée. L’appel d’Anthropic à une réponse coordonnée de l’industrie et des décideurs politiques, articulé avec les contrôles à l’export sur les puces, dessine un nouveau front dans la compétition entre laboratoires d’IA.
La décision d’OpenAI d’abandonner SWE-bench Verified est un signal structurel pour l’ensemble de l’industrie : les benchmarks de codage grand public sont désormais contaminés par les données d’entraînement des modèles les plus performants. Le passage recommandé vers SWE-bench Pro et des benchmarks privés comme GDPVal annonce une reconfiguration des standards d’évaluation — ce qui rend les comparaisons publiques entre modèles encore plus difficiles à interpréter.
Du côté des outils, les deux annonces OpenAI (gpt-realtime-1.5 et WebSockets) ciblent des cas d’usage concrets : les agents vocaux en production et les runs agentiques longue durée avec de nombreux appels d’outils. Le gain de 20-40 % sur les WebSockets n’est pas marginal pour les workflows qui enchaînent 50 ou 100 appels d’outils par session.
Sources
- Rapport Anthropic — Detecting and Preventing Distillation Attacks
- Annonce @AnthropicAI — distillation
- OpenAI — Why We No Longer Evaluate SWE-bench Verified
- Annonce @OpenAIDevs — gpt-realtime-1.5
- Annonce @OpenAIDevs — WebSockets Responses API
- Anthropic — The AI Fluency Index
- Annonce @AnthropicAI — AI Fluency Index
- Annonce @GeminiApp — templates Veo 3.1
- Annonce @pika_labs — AI Selves