Rechercher

Claude Code /loop planifie vos tâches, Copilot VS Code v1.110 déploie les agent plugins, Pika lance AI Selves

Claude Code /loop planifie vos tâches, Copilot VS Code v1.110 déploie les agent plugins, Pika lance AI Selves

L’actualité IA de cette période est marquée par trois axes forts. Côté outils de développement, Claude Code v2.1.71 introduit la commande /loop pour planifier des tâches récurrentes jusqu’à 3 jours, accompagnée de plus de 40 corrections. GitHub Copilot VS Code v1.110 déploie une mise à jour massive avec agent plugins, outils browser agentiques et mémoire partagée. Côté médias génératifs, Pika lance ses AI Selves (jumeaux numériques vidéo) et Luma dévoile ses agents créatifs multimodaux propulsés par Unified Intelligence.


Claude Code v2.1.71 — La commande /loop et 40+ corrections

7 mars — Boris Cherny, responsable de Claude Code, annonce la sortie de la commande /loop, une fonctionnalité majeure de Claude Code v2.1.71. /loop est un skill intégré (built-in skill) qui permet de planifier des tâches récurrentes pour une durée allant jusqu’à 3 jours. La commande accepte un intervalle (par exemple 5m) et un prompt décrivant la tâche à exécuter, en s’appuyant sur les outils de planification cron ajoutés dans cette version.

Exemples d’utilisation concrets :

CommandeAction
/loop babysit all my PRsSurveille les PR, corrige les builds cassés et répond aux commentaires via un agent worktree
/loop every morning use the Slack MCPGénère un résumé matinal des messages Slack
/loop 5m check the deployVérifie l’état du déploiement toutes les 5 minutes

L’annonce a généré un engagement massif : 1,8 million de vues, 12 000 likes et 8 000 signets en moins de 24 heures.

En parallèle, la version inclut plus de 40 corrections de bugs :

CatégorieCorrections
StabilitéGel du stdin dans les sessions longues, gel de démarrage de 5-8 secondes lié au mode vocal (CoreAudio), gel UI au démarrage avec les connecteurs claude.ai (refresh OAuth)
Bugs corrigésConversations forkées (/fork) partageant le même fichier plan, détection de l’extension Chrome bloquée sur “not installed”, clipboard corrompant les textes non-ASCII (CJK, emoji) sur Windows/WSL
PerformanceRéduction de 74 % des re-renders du prompt input, réduction de 426 KB de mémoire au démarrage, chargement différé du processeur d’images natif
AméliorationsReconnexion bridge après mise en veille (secondes au lieu de minutes), icône spark dans la barre d’activité VS Code, vue markdown complète pour les plans, dialogue natif de gestion MCP server dans VS Code

Released today: /loop /loop is a powerful new way to schedule recurring tasks, for up to 3 days at a time

🇫🇷 Publié aujourd’hui : /loop. /loop est un nouveau moyen puissant de planifier des tâches récurrentes, pour une durée allant jusqu’à 3 jours.@bcherny sur X

🔗 Annonce /loop 🔗 Changelog Claude Code v2.1.71


Tâches planifiées locales dans Claude Code Desktop

6 mars — Thariq (équipe Anthropic) annonce le lancement des tâches planifiées locales (local scheduled tasks) dans Claude Code Desktop. Cette fonctionnalité permet de créer des planifications pour des tâches directement depuis l’interface graphique de l’application desktop — le pendant visuel de la commande /loop disponible en CLI.

Le tweet, reposté par Boris Cherny, a reçu 3,5 millions de vues et 13 000 likes. Les deux fonctionnalités (Desktop et CLI) visent le même objectif — l’automatisation de tâches récurrentes — mais offrent deux interfaces complémentaires : graphique pour Desktop, ligne de commande pour /loop.

🔗 Annonce tâches planifiées Desktop


GitHub Copilot VS Code v1.110 — Agent plugins, browser tools et mémoire partagée

6 mars — GitHub publie la release de février de Copilot pour VS Code (v1.110), une mise à jour massive qui transforme Copilot en plateforme agentique extensible. Les nouveautés se répartissent en trois axes.

Programmer les agents

FonctionnalitéDescription
HooksExécuter du code aux événements clés du cycle de vie de l’agent (politiques, auto-lint, blocage de commandes)
Fork de conversationBifurquer depuis un checkpoint pour explorer une alternative
Auto-approveToggle /autoApprove ou /yolo avec sandboxing terminal
File d’attenteEnvoyer des messages pendant que l’agent travaille

Étendre les agents

FonctionnalitéDescription
Agent plugins (experimental)Bundles pré-packagés de skills, outils, hooks et serveurs MCP
Outils browser agentiques (experimental)Naviguer, cliquer, prendre des captures d’écran, vérifier les changements
Copilot CLI intégréDiff tabs, synchronisation des dossiers de confiance, envoi de snippets
Création de personnalisations/create-* pour prompts, skills, agents, hooks

Contexte pour les agents

FonctionnalitéDescription
Mémoire partagéeEntre Copilot coding agent, Copilot CLI et revue de code
Plans persistantsSurvivent à la compaction et aux tours
Sous-agent ExploreRecherche parallélisée du codebase par modèles légers
Compaction de contexteAutomatique + /compact manuel
Gestion des gros outputsÉcriture sur disque au lieu du contexte

Productivité VS Code

Le protocole graphique Kitty arrive pour les images haute fidélité dans le terminal. Le model picker est redessiné avec recherche et sections, et l’attribution AI coauthor est ajoutée pour les commits.

Cette release marque une évolution significative : Copilot ne se contente plus de compléter du code, il devient une plateforme d’agents extensible via plugins, avec des capacités de navigation web et une mémoire partagée entre CLI, IDE et revue de code.

🔗 Copilot VS Code v1.110 (February release)


Figma MCP Server — Génération de design layers depuis VS Code

6 mars — Les utilisateurs GitHub Copilot peuvent désormais connecter le serveur MCP Figma pour établir un pont bidirectionnel entre design et code. Le workflow est complet : tirer le contexte design dans le code, générer du code depuis un design, renvoyer l’UI rendue vers Figma comme frames éditables, puis re-tirer les mises à jour pour itérer.

La capture d’UI vers Figma nécessite le serveur MCP distant. La fonctionnalité est disponible sur tous les plans Figma, dans VS Code pour le moment, avec une arrivée prochaine dans Copilot CLI.

🔗 Figma MCP Server dans VS Code


Pika AI Selves — Jumeaux numériques vidéo avec mémoire persistante

20 février — Pika Labs lance AI Selves, une nouvelle catégorie de produit : des jumeaux numériques (digital twins) vidéo avec mémoire persistante. L’utilisateur uploade du matériel de référence, et Pika crée un avatar vidéo IA persistant qui bouge, parle et réagit comme l’utilisateur.

Les AI Selves s’intègrent avec le pipeline text-to-video et contrôle de mouvement existant de Pika. L’avatar peut apparaître dans des scènes cinématiques, des démos produit, des vidéos explicatives et du contenu social. Point distinctif : les AI Selves disposent d’une mémoire persistante et s’adaptent à la personnalité et au style de communication de l’utilisateur.

La campagne de lancement a été remarquée pour son approche atypique : un infomercial rétro-futuriste accompagné d’un « Twitter storm » où les AI Selves des employés Pika ont tweeté de manière autonome.

🔗 Pika AI Selves


Luma Agents — Intelligence unifiée pour la création multimodale

5 mars — Luma Labs se repositionne avec le lancement de Luma Agents, des agents créatifs multimodaux capables de travailler sur du texte, de l’image, de la vidéo et de l’audio. L’architecture repose sur Unified Intelligence et son modèle Uni-1, qui couple étroitement raisonnement et rendu plutôt que de séparer la réflexion de la création.

Les agents coordonnent plusieurs modèles IA spécialisés :

ModèleDomaine
Ray 3.14 (Luma)Vidéo
Veo 3 (Google)Vidéo
Nano Banana ProImage
Seedream (ByteDance)Image
ElevenLabsVoix

Le contexte du brief initial est maintenu jusqu’à la livraison finale, ce qui distingue l’approche de Luma des workflows fragmentés habituels. Les premiers partenaires enterprise sont Publicis Groupe et Serviceplan Group. L’accès est disponible via API, avec un déploiement progressif.

Ce lancement marque un repositionnement majeur pour Luma : de « Dream Machine » (génération vidéo) vers une plateforme d’agents créatifs intégrés.

🔗 Luma Agents — TechCrunch 🔗 Annonce Luma Agents


Stability AI x WPP — Partenariat stratégique

5 mars — Stability AI annonce un partenariat stratégique et un investissement de WPP, le groupe de communication mondial. L’objectif affiché est d’inaugurer une nouvelle ère d’innovation à la convergence de la créativité et de la technologie, avec un focus sur le secteur média et entertainment.

🔗 Stability AI News


Ce que ça signifie

La période du 5 au 8 mars fait émerger deux tendances structurantes.

L’automatisation dépasse le tour unique. Claude Code /loop et les tâches planifiées Desktop introduisent la notion de tâches récurrentes dans les outils de développement IA — surveiller des PR pendant 3 jours, générer des résumés quotidiens, vérifier des déploiements toutes les 5 minutes. En parallèle, Copilot VS Code v1.110 franchit un cap avec les agent plugins, les outils browser agentiques et la mémoire partagée entre CLI, IDE et revue de code. Les assistants de code ne se contentent plus de répondre à une requête : ils peuvent maintenant planifier, itérer et mémoriser leur contexte entre les sessions.

Les médias génératifs passent aux agents et aux avatars. Pika AI Selves introduit les jumeaux numériques vidéo avec mémoire persistante, tandis que Luma se repositionne de la génération vidéo vers les agents créatifs multimodaux avec Uni-1. Le point commun : la persistance d’identité et de contexte. Ces outils ne génèrent plus des clips isolés — ils maintiennent une cohérence à travers les créations. L’investissement de WPP dans Stability AI confirme l’intérêt du secteur publicitaire pour ces technologies.


Sources