Rechercher

Claude Code auto mode, shopping visuel dans ChatGPT, Grok Imagine multi-images vers vidéo

Claude Code auto mode, shopping visuel dans ChatGPT, Grok Imagine multi-images vers vidéo

Journée dense les 23 et 24 mars : Anthropic déploie l’auto mode dans Claude Code — un classifieur d’actions qui prend les décisions d’approbation à la place de l’utilisateur — et publie un article d’ingénierie sur son architecture multi-agents inspirée des GAN. OpenAI lance le shopping visuel dans ChatGPT avec l’Agentic Commerce Protocol, tandis que xAI ouvre Grok Imagine à la vidéo multi-images sur API. GitHub Copilot, Google DeepMind et l’Anthropic Science Blog complètent ce tour d’horizon.


Claude Code : l’auto mode, un classifieur entre vous et les commandes

24 mars — Claude Code ajoute un troisième niveau de permissions : l’auto mode. Jusqu’ici, l’outil proposait soit d’approuver manuellement chaque écriture de fichier et commande bash, soit de désactiver complètement les vérifications. L’auto mode introduit une voie intermédiaire : Claude prend lui-même les décisions, encadré par un classifieur (classifier) qui analyse chaque action avant exécution.

Le mécanisme est simple — avant chaque appel d’outil, le classifieur évalue si l’action est potentiellement destructrice. Les actions jugées sûres s’exécutent automatiquement. Les actions risquées sont bloquées, et Claude cherche une approche alternative sans interrompre l’utilisateur.

Anthropic précise que ce mode réduit les risques sans les éliminer, et recommande son utilisation dans des environnements isolés. Pour l’activer : claude --enable-auto-mode, puis naviguer vers ce mode avec Shift+Tab.

La fonctionnalité est disponible en préversion (research preview) sur le plan Team. Le déploiement pour Enterprise et API était annoncé pour les jours suivants.

New in Claude Code: auto mode. Instead of approving every file write and bash command, or skipping permissions entirely, auto mode lets Claude make permission decisions on your behalf. Safeguards check each action before it runs.

🇫🇷 Nouveau dans Claude Code : l’auto mode. Au lieu d’approuver chaque écriture de fichier et chaque commande bash, ou d’ignorer complètement les permissions, l’auto mode laisse Claude prendre les décisions d’approbation à votre place. Des protections vérifient chaque action avant son exécution.@claudeai sur X

🔗 Annonce sur X


Architecture multi-agents : l’approche GAN d’Anthropic Engineering

24 mars — Dans un article publié sur l’Anthropic Engineering Blog, Prithvi Rajasekaran (équipe Labs) décrit une architecture multi-agents pour repousser les limites de Claude sur deux domaines : le design d’interface et le développement applicatif autonome longue durée.

L’approche s’inspire des réseaux antagonistes génératifs (Generative Adversarial Networks, GAN) : un agent générateur produit le code ou le design, tandis qu’un agent évaluateur distinct note le résultat et fournit un retour critique. Ce découplage règle un problème connu — Claude a tendance à s’auto-évaluer avec complaisance. Un évaluateur dédié, calibré progressivement avec des exemples, devient un levier d’amélioration efficace.

Pour le design frontend, l’évaluateur reçoit l’accès au MCP Playwright pour naviguer les pages en direct. Quatre critères sont utilisés : qualité et cohérence du design, originalité (pénalisant les patterns génériques dits “AI slop”), craft technique, et fonctionnalité. En 10 à 15 itérations, le générateur produit des interfaces notablement plus distinctives.

Pour le développement applicatif, l’architecture ajoute un planificateur : il transforme un prompt d’une phrase en spécification produit complète. Générateur et évaluateur négocient des “contrats de sprint” avant chaque implémentation, définissant les critères de succès. L’évaluateur teste l’application via Playwright et peut faire échouer un sprint, forçant une révision.

ApprocheDuréeCoûtRésultat
Agent solo Opus 4.520 min9 $Application cassée
Harness complet6 h200 $Application fonctionnelle
Harness avec Opus 4.64 h124,70 $Application fonctionnelle + agent Claude intégré

Avec Opus 4.6 — qui ne souffre plus d‘“anxiété de contexte” — l’auteur a pu simplifier l’architecture, supprimer les resets de session et réduire les coûts. Le principe directeur reste : auditer régulièrement le harness pour retirer ce que le modèle sait désormais faire seul.

🔗 Article complet 🔗 Annonce sur X


Computer Use dans Cowork et Claude Code (macOS, Pro/Max)

23 mars — Claude peut désormais utiliser votre ordinateur pour accomplir des tâches directement. En préversion, cette fonctionnalité est disponible dans Claude Cowork et Claude Code, sur macOS uniquement.

Claude peut ouvrir des applications, naviguer dans le navigateur, remplir des feuilles de calcul. L’idée : confier une tâche depuis son téléphone, s’occuper d’autre chose, et revenir à un travail terminé. Il est également possible de définir des tâches récurrentes — scanner les e-mails chaque matin, générer un rapport chaque vendredi.

La fonctionnalité Computer Use est disponible sur les plans Pro et Max, en mettant à jour l’application de bureau et en la couplant avec l’application mobile.

🔗 Annonce sur X 🔗 Page produit Cowork


Anthropic Economic Index : “Learning curves” (5e rapport)

24 mars — Anthropic publie son cinquième rapport de l’Anthropic Economic Index, intitulé “Learning curves”, basé sur les données d’utilisation de Claude en février 2026 (environ 1 million de conversations, du 5 au 12 février).

Le rapport documente deux évolutions majeures depuis novembre 2025. D’abord, une diversification des usages : les dix tâches les plus fréquentes sur Claude.ai ne représentent plus que 19 % du trafic, contre 24 % trois mois plus tôt. Cette tendance s’explique en partie par la migration des tâches de codage vers l’API, portée par la croissance de Claude Code.

Ensuite, l’effet “courbe d’apprentissage” : les utilisateurs de longue date (plus de six mois) présentent un taux de succès supérieur de 4 à 5 points de pourcentage. Ils travaillent sur des problèmes plus complexes, collaborent davantage et délèguent moins en mode automatique. Les auteurs y voient un signal d’apprentissage par la pratique (learning-by-doing), même si un biais de survie reste possible.

Sur le choix de modèle, les données confirment que les utilisateurs privilégient Opus pour les tâches à forte valeur : chaque tranche de 10 $/h supplémentaires dans la valeur estimée d’une tâche s’accompagne d’une hausse de 1,5 point dans la proportion d’utilisation d’Opus sur Claude.ai, et de 2,8 points sur l’API.

🔗 Rapport complet 🔗 Annonce sur X


Anthropic Science Blog : un nouveau blog pour l’IA en recherche scientifique

23 mars — Anthropic lance l’Anthropic Science Blog, dédié à l’intersection entre l’IA et la recherche scientifique. L’objectif est de documenter comment l’IA accélère le travail des chercheurs et d’explorer les questions que cette transformation soulève.

Le blog publiera trois types de contenus : des articles de fond sur des résultats précis avec le rôle de l’IA détaillé (Features), des guides pratiques par domaine scientifique (Workflows), et des revues de l’actualité du domaine (Field notes).

Deux articles inauguraux accompagnent ce lancement : “Vibe physics: The AI grad student” de Matthew Schwartz (un physicien supervisé par Claude sur un calcul réel), et un tutoriel sur l’orchestration de Claude Code pour des tâches scientifiques multi-jours.

Ce blog s’ancre dans les initiatives existantes d’Anthropic : le programme AI for Science (crédits API pour chercheurs), Claude for Life Sciences (partenariats avec pharma et biotech), et la Genesis Mission.

🔗 Article de lancement 🔗 Annonce sur X


Shopping visuel dans ChatGPT et Agentic Commerce Protocol

24 mars — OpenAI lance une expérience d’achat visuel et immersive directement dans ChatGPT. Les utilisateurs peuvent parcourir des produits visuellement, les comparer côte à côte avec détails (prix, avis, caractéristiques), et affiner leur recherche en conversation — sans quitter ChatGPT. Il est également possible d’uploader une photo d’inspiration pour trouver des articles similaires.

Pour alimenter cette fonctionnalité, OpenAI étend l’Agentic Commerce Protocol (ACP) à la découverte de produits. Ce protocole devient la couche de connexion entre marchands et utilisateurs : les marchands partagent leurs catalogues via ACP, et les données remontent directement dans ChatGPT. Salesforce et Stripe sont déjà intégrés comme fournisseurs tiers.

DétailInfo
DisponibilitéTous utilisateurs Free, Go, Plus, Pro — déploiement cette semaine
Upload imagesPhoto d’inspiration pour trouver des articles similaires
Marchands intégrésTarget, Sephora, Nordstrom, Lowe’s, Best Buy, The Home Depot, Wayfair
ShopifyCatalogues déjà intégrés sans action des marchands

Walmart est le premier marchand à proposer une app ChatGPT native : de la découverte dans ChatGPT à un environnement Walmart avec liaison de compte, programme fidélité et paiements. Disponible en navigateur web, iOS et Android à venir. Note : OpenAI abandonne sa fonctionnalité “Instant Checkout” initiale, jugée insuffisamment flexible pour les marchands, et se concentre sur la découverte.

🔗 Annonce officielle


OpenAI : politiques de sécurité pour adolescents en open source

24 mars — OpenAI publie un ensemble de politiques de sécurité en open source pour aider les développeurs à créer des expériences adaptées aux adolescents. Ces politiques se présentent sous forme de prompts utilisables directement avec gpt-oss-safeguard, le modèle de sécurité open-weight d’OpenAI.

L’objectif : permettre aux développeurs de traduire des objectifs de sécurité abstraits en règles opérationnelles précises. Six domaines sont couverts :

DomaineDescription
Contenu violent graphiqueFiltrage de la violence explicite
Contenu sexuel graphiqueFiltrage de la sexualité explicite
Idéaux corporels dangereuxTroubles alimentaires, comportements à risque
Activités et défis dangereuxChallenges viraux à risque
Jeux de rôle romantiques ou violentsInteractions inappropriées
Biens et services réservés aux adultesAlcool, tabac, jeux d’argent

Ces politiques ont été développées avec Common Sense Media et everyone.ai. Publiées via la ROOST Model Community (RMC GitHub), elles sont présentées explicitement comme un point de départ, pas une solution complète.

🔗 Annonce officielle


OpenAI Foundation : au moins 1 milliard de dollars déployés

24 mars — Bret Taylor, président du conseil d’administration de l’OpenAI Foundation, annonce que la Fondation commence à déployer les ressources issues de la recapitalisation de l’automne 2025. Au moins 1 milliard de dollars sera investi sur l’année dans quatre domaines : sciences de la vie (Alzheimer, maladies à haute mortalité), emploi et impact économique, résilience IA (sécurité des enfants, biosécurité), et programmes communautaires.

🔗 Annonce officielle


OpenAI : Library tab pour gérer les fichiers dans ChatGPT

23 mars — OpenAI ajoute de nouvelles fonctionnalités de gestion de fichiers dans ChatGPT : fichiers récents accessibles directement depuis la barre d’outils, possibilité d’interroger un document déjà uploadé, et un onglet Library dans la barre latérale web pour retrouver l’ensemble des fichiers. Disponible pour les abonnés Plus, Pro et Business, avec un déploiement à venir pour l’Espace économique européen, la Suisse et le Royaume-Uni.

🔗 Annonce sur X


Gemini 3.1 Flash-Lite : un navigateur qui génère les pages en temps réel

24 mars — Google DeepMind publie une démonstration de Gemini 3.1 Flash-Lite : un navigateur expérimental qui génère chaque page web à la volée, au fil des clics, des recherches et de la navigation. Aucune page HTML préexistante — chaque contenu est créé en temps réel par le modèle. La démo est accessible directement depuis Google AI Studio et a généré un fort engagement (85 000 vues en quelques heures).

🔗 Démo AI Studio 🔗 Annonce sur X


Google DeepMind × Agile Robots : partenariat robotique

24 mars — Google DeepMind annonce un partenariat de recherche avec Agile Robots, spécialiste de la robotique humanoïde. L’accord prévoit d’intégrer les modèles fondamentaux Gemini dans le hardware robotique d’Agile Robots, dans le cadre de la stratégie Gemini Robotics de Google DeepMind.

🔗 Annonce sur X


Grok Imagine : vidéo multi-images sur API (#1 Arena Elo 1342)

24 mars — xAI annonce deux nouvelles capacités pour son API Grok Imagine : la génération de vidéo à partir de plusieurs images (multi-image to video) et l’extension de vidéo existante (video extension).

Les développeurs peuvent soumettre jusqu’à 7 images en entrée pour générer une vidéo cohérente via le modèle grok-imagine-video. L’API fonctionne de manière asynchrone : on soumet la requête, puis on interroge jusqu’au statut done. Les sorties supportent le ratio 16:9 en 720p.

Selon Design Arena, Grok Imagine a immédiatement pris la première place du classement Multi Image to Video Arena avec un score Elo de 1342.

🔗 Annonce @grok 🔗 Documentation API Imagine


GitHub Copilot : @copilot pour modifier directement une PR

24 mars — GitHub Copilot peut désormais modifier directement n’importe quelle pull request à la demande. En mentionnant @copilot dans un commentaire avec une instruction en langage naturel — corriger des tests en échec, adresser un commentaire de review, ajouter un test unitaire — l’agent travaille dans son environnement cloud, valide son travail avec les tests et linters, puis pousse les changements sur la branche. Le comportement précédent (ouvrir une nouvelle PR) reste disponible en le demandant explicitement. Disponible sur tous les plans Copilot payants.

🔗 Changelog GitHub


GitHub Copilot : Gemini 3.1 Pro dans JetBrains, Xcode et Eclipse

23 mars — GitHub Copilot étend la disponibilité de Gemini 3.1 Pro aux IDEs JetBrains, Xcode et Eclipse. Le modèle est désormais accessible via le sélecteur de modèles Copilot dans tous les modes (agent, ask, edit) sur ces environnements, en plus des plateformes déjà supportées. En preview publique pour les plans Enterprise, Business, Pro et Pro+.

🔗 Changelog GitHub


GitHub Copilot : gestion de l’accès de l’agent par dépôt via API

24 mars — GitHub publie en preview publique une API REST pour gérer l’accès du Copilot coding agent au niveau des dépôts d’organisation. Les administrateurs peuvent autoriser l’agent sur aucun, tous, ou certains dépôts spécifiques de manière programmatique — utile pour les déploiements à grande échelle en entreprise.

🔗 Changelog GitHub


GitHub Copilot : logs en direct dans Raycast

20 mars — L’extension GitHub Copilot pour Raycast (le launcher macOS/Windows) permet désormais de surveiller en direct les logs du coding agent sans quitter le launcher. Via la commande “View Tasks”, puis sélection de la session, les développeurs suivent l’avancement de l’agent en temps réel. Disponible pour tous les abonnés Copilot payants.

🔗 Changelog GitHub


Ce que ça signifie

L’auto mode de Claude Code est le changement le plus structurant de cette période. Il déplace la charge cognitive de l’utilisateur — plus besoin d’approuver chaque commande — tout en maintenant un filet de sécurité via le classifieur. C’est une étape vers des agents de développement plus autonomes, mais dans un cadre explicitement recommandé pour les environnements isolés. L’article d’ingénierie sur le harness multi-agents complète ce tableau : la trajectoire d’Anthropic est clairement vers des agents qui travaillent longtemps et de manière autonome, avec des structures de supervision internes (évaluateur dédié, contrats de sprint) plutôt qu’une supervision humaine à chaque étape.

Du côté d’OpenAI, le shopping visuel dans ChatGPT marque un pivot vers les cas d’usage commerciaux grand public. L’Agentic Commerce Protocol positionne ChatGPT comme une couche d’intermédiation entre marchands et consommateurs — une stratégie différente de l’API pure, qui cible directement la valeur transactionnelle.

Grok Imagine qui atteint la première place du classement Arena dès son lancement sur le multi-image to video illustre la vitesse à laquelle xAI itère sur la génération vidéo. GitHub Copilot, de son côté, renforce systématiquement l’autonomie de son coding agent : la capacité à modifier directement une PR existante réduit encore les allers-retours entre l’agent et le développeur.


Sources