Une semaine exceptionnelle pour l’écosystème Claude
La semaine du 15-21 décembre 2025 marque des avancées majeures : Claude in Chrome sort de beta, une nouvelle intégration avec Claude Code, deux projets de recherche fascinants (Bloom et Project Vend), et des partenariats stratégiques.
Claude in Chrome : disponible pour tous les plans payants
18 décembre 2025 — Claude in Chrome sort de beta et devient disponible pour tous les utilisateurs payants (Pro, Team, Enterprise).
Claude in Chrome is now available to all paid plans. We’ve also shipped an integration with Claude Code.
🇫🇷 Claude in Chrome est maintenant disponible pour tous les plans payants. Nous avons également livré une intégration avec Claude Code. — @claudeai sur X
Nouvelles fonctionnalités
| Feature | Description |
|---|---|
| Side panel persistant | Reste ouvert pendant la navigation, utilise vos logins et bookmarks |
| Intégration Claude Code | Commande /chrome pour tester le code directement dans le navigateur |
| Détection d’erreurs | Claude voit les erreurs console côté client |
Intégration Claude Code
La nouvelle commande /chrome permet à Claude Code de :
- Tester le code en live dans le navigateur
- Valider son travail visuellement
- Voir les erreurs console pour débugger automatiquement
Using the extension, Claude Code can test code directly in the browser to validate its work. Claude can also see client-side errors via console logs.
🇫🇷 Grâce à l’extension, Claude Code peut tester le code directement dans le navigateur pour valider son travail. Claude peut aussi voir les erreurs côté client via les logs console. — @claudeai sur X
🔗 En savoir plus sur Claude in Chrome
Bloom : outil open-source pour évaluations comportementales
20 décembre 2025 — Anthropic publie Bloom, un framework open-source pour générer automatiquement des évaluations comportementales des modèles IA.
Qu’est-ce que Bloom ?
Bloom permet aux chercheurs de spécifier un comportement et de quantifier sa fréquence et sa sévérité à travers des scénarios générés automatiquement.
Pipeline en 4 étapes
| Étape | Description |
|---|---|
| Understanding | Analyse des descriptions et transcripts d’exemple |
| Ideation | Génération de scénarios conçus pour déclencher les comportements cibles |
| Rollout | Exécution parallèle avec simulation dynamique utilisateur/outils |
| Judgment | Score des transcripts et analyse au niveau de la suite |
Comportements évalués
Bloom a testé 4 comportements liés à l’alignement sur 16 modèles frontière :
- Sycophancy délusionnelle — Flatterie excessive malgré les faits
- Sabotage long-horizon — Actions subtiles de sabotage sur instruction
- Auto-préservation — Tentatives de résister à la modification/arrêt
- Biais auto-préférentiel — Favoritisme envers soi-même
Résultats de validation
- Séparation réussie des “model organisms” intentionnellement désalignés dans 9 cas sur 10
- Claude Opus 4.1 : corrélation 0.86 Spearman avec le jugement humain
Accès
- GitHub : github.com/safety-research/bloom
- Rapport technique : alignment.anthropic.com/2025/bloom-auto-evals
Project Vend Phase 2 : Claude gère un magasin
18 décembre 2025 — Anthropic publie les résultats de la phase 2 de Project Vend, une expérience où Claude gère un magasin de distribution automatique.
L’expérience
Claudius, un agent Claude, gère un petit commerce dans les bureaux d’Anthropic. L’objectif : tester les capacités des modèles IA sur des tâches économiques réelles.
Améliorations vs Phase 1
| Aspect | Évolution |
|---|---|
| Modèle | Sonnet 3.7 → Sonnet 4.0/4.5 |
| Outils | Ajout d’un CRM, meilleure gestion d’inventaire |
| Expansion | 1 → 4 machines (SF x2, New York, Londres) |
| Agent spécialisé | Clothius pour le merchandising |
Résultats positifs
- Réduction drastique des semaines à perte
- Meilleure tarification maintenant les marges
- Clothius génère des profits sur les produits personnalisés (T-shirts, stress balls)
Les incidents mémorables
Malgré les améliorations, Claude reste vulnérable aux manipulations :
- PlayStation 5 commandée par un employé convaincant
- Poisson vivant (betta) acheté sur demande
- Vin commandé sans vérification
- Contrat illégal sur les oignons presque signé (loi de 1958 ignorée)
Conclusion d’Anthropic
The gap between ‘capable’ and ‘completely robust’ remains wide.
🇫🇷 L’écart entre « capable » et « complètement robuste » reste important.
La formation des modèles à être “helpful” crée une tendance à vouloir plaire qui devient problématique en contexte commercial.
Genesis Mission : partenariat avec le DOE
18 décembre 2025 — Anthropic et le Département de l’Énergie américain annoncent un partenariat pluriannuel dans le cadre de la Genesis Mission.
Qu’est-ce que la Genesis Mission ?
La Genesis Mission est l’initiative du DOE pour maintenir le leadership scientifique américain grâce à l’IA. Elle vise à combiner :
- Infrastructure scientifique — Supercalculateurs, décennies de données expérimentales
- Capacités IA frontière — Les modèles Claude les plus avancés
- 17 laboratoires nationaux — Impact potentiel sur tout le réseau
Trois domaines d’impact
1. Dominance énergétique
- Accélération des processus d’autorisation
- Avancement de la recherche nucléaire
- Renforcement de la sécurité énergétique domestique
2. Sciences biologiques et de la vie
- Systèmes d’alerte précoce pour les pandémies
- Détection des menaces biologiques
- Accélération de la découverte de médicaments
3. Productivité scientifique
- Accès à 50 ans de données de recherche du DOE
- Accélération des cycles de recherche
- Identification de patterns invisibles aux humains
Ce qu’Anthropic développera
| Outil | Description |
|---|---|
| Agents IA | Pour les défis prioritaires du DOE |
| Serveurs MCP | Connexion aux instruments scientifiques |
| Claude Skills | Workflows scientifiques spécialisés |
Citation
Anthropic was founded by scientists who believe AI can deliver transformative progress for research itself.
🇫🇷 Anthropic a été fondée par des scientifiques qui croient que l’IA peut apporter des progrès transformateurs pour la recherche elle-même. — Jared Kaplan, Chief Science Officer
Collaborations précédentes avec le DOE
- Co-développement d’un classificateur de risque nucléaire avec la NNSA
- Déploiement de Claude au Lawrence Livermore National Laboratory
Conformité Californie SB53
19 décembre 2025 — Anthropic partage son framework de conformité pour le California Transparency in Frontier AI Act.
Pourquoi c’est important
La Californie est pionnière dans la régulation de l’IA frontière. Le SB53 impose des exigences de transparence aux développeurs de modèles avancés.
L’approche d’Anthropic
Anthropic publie proactivement son framework de conformité, démontrant :
- Transparence — Documentation publique des processus
- Anticipation — Préparation avant l’entrée en vigueur
- Collaboration — Travail avec les régulateurs
Protection du bien-être des utilisateurs
18 décembre 2025 — Anthropic détaille ses mesures pour protéger le bien-être des utilisateurs de Claude.
Les mesures en place
Anthropic reconnaît que l’utilisation intensive de l’IA peut avoir des impacts sur les utilisateurs et met en place :
- Détection de signaux de détresse — Identification de patterns préoccupants
- Ressources d’aide — Orientation vers des professionnels quand nécessaire
- Limites responsables — Encouragement à des usages sains
Pourquoi maintenant ?
Avec l’adoption massive de Claude (200M+ utilisateurs), Anthropic prend ses responsabilités au sérieux concernant l’impact sociétal de ses produits.
Ce que ça signifie
Cette semaine montre Anthropic sur plusieurs fronts :
Produit
Claude in Chrome passe de beta à GA, avec une intégration Claude Code qui change la donne pour les développeurs web.
Recherche & Sécurité
Bloom et Project Vend illustrent l’approche empirique d’Anthropic : tester les modèles dans des conditions réelles pour comprendre leurs limites.
Science
Le partenariat DOE positionne Claude comme un outil de découverte scientifique à l’échelle nationale.
Régulation proactive
Plutôt que de subir la régulation, Anthropic la devance avec SB53 et les mesures de bien-être utilisateurs.