Rechercher

Routines Claude Code, Gemini Robotics-ER 1.6, GLM-5.1 open source

Routines Claude Code, Gemini Robotics-ER 1.6, GLM-5.1 open source

Le 14 avril 2026 marque une journée dense pour les outils de développement assistés par l’IA : Anthropic lance les routines dans Claude Code, permettant d’automatiser des workflows entiers sur planification ou via webhook, sans garder son ordinateur allumé. Google DeepMind publie Gemini Robotics-ER 1.6 avec de nouvelles capacités de perception industrielle développées avec Boston Dynamics. Z.ai ouvre GLM-5.1 sous licence MIT, classé numéro 1 des modèles open source sur SWE-Bench Pro. GitHub Copilot ajoute trois fonctionnalités utiles : résolution de conflits en trois clics, résidence des données US/EU et sélection de modèle pour les agents tiers.


Routines dans Claude Code — recherche préliminaire (research preview)

14 avril — Anthropic lance les routines dans Claude Code en research preview. Une routine est une automatisation configurée une seule fois — avec un prompt, un dépôt et des connecteurs — qui s’exécute ensuite de manière autonome, sans que l’utilisateur reste connecté.

Trois types de déclencheurs sont disponibles :

TypeDéclencheurExemple d’usage
Planifiée (Scheduled)Cron (horaire, nuit, semaine)Triage nightly des bugs Linear, ouverture de PR de correction
APIAppel HTTP POST vers un endpoint dédiéAlerte Datadog → triage automatique + brouillon de correctif
WebhookÉvénements GitHub (PR, push…)Revue de code automatique sur chaque PR ouverte

Chaque routine dispose de son propre endpoint et token d’authentification. Les routines API s’intègrent dans n’importe quel pipeline existant (alertes, hooks de déploiement, outils internes). Les routines webhook démarrent une nouvelle session pour chaque PR correspondant aux filtres définis, et alimentent la session avec les mises à jour suivantes (commentaires, échecs d’intégration continue).

“Configure a routine once (a prompt, a repo, and your connectors), and it can run on a schedule, from an API call, or in response to an event. Routines run on our web infrastructure, so you don’t have to keep your laptop open.”

🇫🇷 Configurez une routine une seule fois (un prompt, un dépôt et vos connecteurs), et elle peut s’exécuter sur un planning, à partir d’un appel API, ou en réponse à un événement. Les routines tournent sur notre infrastructure web, donc inutile de garder votre ordinateur allumé.@claudeai sur X

Disponibilité et limites :

PlanRoutines/jour
Pro5
Max15
Team / Enterprise25

Disponible sur tous les plans payants (Pro, Max, Team, Enterprise) avec Claude Code web activé. Au-delà des quotas, un usage supplémentaire reste possible. Les routines consomment les crédits d’abonnement comme les sessions interactives.

Cas d’usage documentés :

  • Gestion de backlog : triage nightly, étiquetage, résumé Slack
  • Dérive de documentation (docs drift) : scan hebdomadaire des PR fusionnées, détection des pages à mettre à jour
  • Vérification post-déploiement : tests de fumée (smoke checks) après chaque release
  • Portage de SDK : chaque PR Python fusionnée déclenche automatiquement un portage vers le SDK Go

🔗 Blog Anthropic 🔗 Tweet d’annonce


Claude Code v2.1.105 — hooks PreCompact, monitors de plugins, /proactive

11 au 13 avril — La version 2.1.105 de Claude Code apporte plusieurs améliorations notables :

FonctionnalitéDescription
Paramètre path pour EnterWorktreePermet de basculer vers un worktree existant du dépôt courant
Hook PreCompactLes hooks peuvent désormais bloquer la compaction (code de sortie 2 ou {"decision":"block"})
Background monitors pour pluginsClé monitors dans le manifeste de plugin — armé automatiquement au démarrage de session
/proactiveNouvel alias pour /loop
Abandon des Streams API bloquésAbandon après 5 minutes sans données + retry en mode non-streaming
Messages d’erreur réseauAffichage immédiat d’un message de retry au lieu d’un spinner silencieux
Affichage fichiers longsLes écritures single-line très longues (ex : JSON minifié) sont tronquées dans l’interface
/doctor amélioréIcônes de statut + touche f pour demander à Claude de corriger les problèmes détectés

14 avril — La version 2.1.107 apporte une amélioration d’interface : les indices de progression (thinking hints) s’affichent désormais plus tôt lors des opérations longues, réduisant la sensation d’attente sans retour visuel.

🔗 CHANGELOG Claude Code


Anthropic — Vas Narasimhan rejoint le conseil d’administration

14 avril — Le Long-Term Benefit Trust (LTBT) d’Anthropic a nommé Vas Narasimhan au conseil d’administration. Médecin-scientifique et PDG de Novartis, il a supervisé le développement et l’approbation de plus de 35 médicaments innovants dans l’un des secteurs les plus réglementés au monde.

Avec cette nomination, les directeurs nommés par le Trust constituent désormais la majorité du conseil. Le LTBT est un organe indépendant dont les membres n’ont aucun intérêt financier dans Anthropic — son rôle est de maintenir l’équilibre entre succès commercial et mission de bénéfice public à long terme.

🔗 Annonce Anthropic


Gemini Robotics-ER 1.6 — perception industrielle et sécurité

14 avril — Google DeepMind publie Gemini Robotics-ER 1.6, mise à jour de son modèle de raisonnement incarné (embodied reasoning) pour la robotique. Le modèle améliore la compréhension visuelle et spatiale pour permettre aux robots de planifier et d’exécuter des tâches réelles avec plus d’autonomie. Il surpasse Gemini Robotics-ER 1.5 et Gemini 3.0 Flash sur les benchmarks robotiques internes.

Nouvelles capacités :

CapacitéDescription
Pointage spatial (Pointing)Détection et comptage d’objets, logique relationnelle (plus petit/grand), trajectoires et points de préhension, contraintes complexes
Détection de succès multi-vuesAnalyse plusieurs angles de caméra pour vérifier qu’une tâche est réellement accomplie
Lecture d’instrumentsLit jauges circulaires et tubes transparents (sight glasses) — développé avec Boston Dynamics pour l’inspection industrielle
Sécurité (benchmark ASIMOV v2)Meilleur score parmi tous les modèles testés sur le respect des consignes de sécurité

La capacité de lecture d’instruments est née de la collaboration avec Boston Dynamics pour le robot Spot, utilisé dans les inspections d’installations industrielles. Elle combine raisonnement spatial et exécution de code pour interpréter des jauges de pression avec haute précision.

Disponibilité : Gemini API (gemini-robotics-er-1.6-preview), Google AI Studio, et notebook de démarrage sur GitHub Colab.

🔗 Blog Google DeepMind 🔗 Tweet d’annonce


GLM-5.1 — Z.ai ouvre son modèle agentique sous licence MIT

7 avril (annonce rattrapée — passée sous le radar lors du scan de la semaine dernière) — Z.ai (anciennement ZhipuAI) a publié GLM-5.1, son nouveau modèle phare pour le codage agentique (agentic coding), disponible en open source sous licence MIT.

Performances sur les benchmarks de code :

BenchmarkGLM-5.1GLM-5Claude Opus 4.6GPT-5.4Gemini 3.1 Pro
SWE-Bench Pro58,455,157,357,754,2
NL2Repo42,735,949,841,333,4
Terminal-Bench 2.063,556,265,468,5

GLM-5.1 se classe numéro 1 en open source et troisième mondial sur SWE-Bench Pro, Terminal-Bench et NL2Repo.

La différence clé : l’horizon long. Les modèles précédents, y compris GLM-5, améliorent rapidement leurs performances dans un premier temps, puis plafonnent. GLM-5.1 est conçu pour rester efficace sur des tâches agentiques sur des horizons beaucoup plus longs : il peut travailler de manière autonome pendant 8 heures, en affinant ses stratégies au fil de milliers d’appels d’outils.

Trois scénarios illustrent cette capacité :

  • Optimisation de base vectorielle sur 600 itérations : GLM-5.1 atteint 21 500 requêtes par seconde sur VectorDBBench, soit 6 fois le meilleur résultat obtenu en une session de 50 tours.
  • Optimisation de noyaux GPU sur 1 000+ tours : accélération de 3,6 fois sur KernelBench Niveau 3.
  • Construction d’un bureau Linux en 8 heures : à partir d’une simple invite en langage naturel, GLM-5.1 produit un environnement de bureau complet dans le navigateur (explorateur de fichiers, terminal, éditeur, moniteur système).

Disponibilité : poids open source sur HuggingFace (zai-org/GLM-5.1), API sur api.z.ai et BigModel.cn, compatible Claude Code, Cline, Roo Code, Kilo Code et OpenCode.

🔗 Blog GLM-5.1 🔗 Tweet d’annonce


Codex CLI v0.120.0 — diffusion en temps réel des agents

11 avril — La version 0.120.0 du Codex CLI est publiée comme version stable. Elle apporte plusieurs améliorations fonctionnelles :

FonctionnalitéDétail
Realtime V2Diffuse la progression des agents en arrière-plan en temps réel, met en file d’attente les réponses suivantes
Hooks TUI améliorésLes hooks actifs s’affichent séparément, l’historique des hooks complétés est allégé
Titre de thread dans le statutLes statuts TUI personnalisés peuvent inclure le titre du thread renommé
Schéma de sortie code-modeLes déclarations d’outils code-mode incluent désormais les détails outputSchema MCP
Hooks SessionStartDistingue les sessions créées par /clear des démarrages ou reprises

La version inclut également plusieurs corrections de bugs : gestion des sandboxes Windows élevés, panics lors de connexions WebSocket TLS, conservation de l’ordre des résultats de recherche d’outils.

🔗 Release v0.120.0


GitHub Copilot — trois nouvelles fonctionnalités

Sélection de modèle pour les agents tiers

14 avril — Il est désormais possible de choisir le modèle lors du lancement d’une tâche avec les agents Claude (Anthropic) et Codex (OpenAI) sur github.com.

AgentModèles disponibles
ClaudeClaude Sonnet 4.6, Claude Opus 4.6, Claude Sonnet 4.5, Claude Opus 4.5
CodexGPT-5.2-Codex, GPT-5.3-Codex, GPT-5.4

Inclus avec l’abonnement Copilot existant (Business ou Enterprise), mais l’administrateur doit activer les politiques correspondantes au niveau de l’entreprise ou de l’organisation.

🔗 Changelog sélection de modèle

Résolution de conflits de merge en trois clics

13 avril — Un nouveau bouton “Fix with Copilot” apparaît sur les pull requests avec des conflits de merge. En trois clics, Copilot cloud agent résout les conflits, vérifie que le build et les tests passent, puis pousse depuis son environnement cloud isolé. La mention @copilot dans les PR permet aussi de corriger des workflows GitHub Actions qui échouent ou d’adresser des commentaires de code review. Disponible sur tous les plans Copilot payants.

🔗 Changelog merge conflicts

Résidence des données US/EU et conformité FedRAMP

13 avril — GitHub Copilot supporte désormais la résidence des données pour les régions US et EU : toutes les inférences et données associées restent dans la zone géographique désignée. Les clients gouvernementaux américains bénéficient en plus de la conformité FedRAMP Moderate. Les requêtes data-resident portent une majoration de 10% sur le multiplicateur de premium requests. Les modèles Gemini ne sont pas encore supportés (GCP ne propose pas encore d’endpoints d’inférence avec résidence des données). Japon et Australie sont sur la feuille de route pour 2026.

🔗 Changelog data residency


Media générative — Runway, Luma, MiniMax, ElevenLabs

Runway Characters dans les appels vidéo

14 avril — Runway déploie une mise à jour des Characters permettant d’envoyer son avatar IA dans un appel vidéo Zoom, Google Meet ou Teams. La procédure : choisir ou créer un Character → coller le lien de réunion → cliquer “Join Meeting”. La fonctionnalité, initialement disponible comme API pour développeurs depuis le 9 mars, est désormais accessible à tous les utilisateurs depuis l’application Runway.

🔗 Tweet Runway

14 avril — Luma Labs lance deux nouvelles fonctionnalités : la dictée vocale dans son application (l’utilisateur parle, la description est convertie en prompt de génération) et l’animation de logo cinématique (uploader son logo, l’agent produit une entrée animée orientée branding).

🔗 Tweet dictée vocale · Tweet animation logo

MiniMax — trois Music Skills open source pour agents

14 avril — MiniMax ouvre en open source trois Music Skills pour agents : minimax-music-gen (génération d’un morceau complet depuis un prompt, avec choix automatique entre original, instrumental et reprise), buddy-sings (l’agent IA chante en tant que compagnon vocal), et Playlist curation (curation de playlist depuis la bibliothèque de l’utilisateur). Ces composants sont destinés à l’intégration dans des agents M2.7.

🔗 Tweet MiniMax

ElevenLabs — 100 millions de dollars de revenu récurrent net en Q1 2026

13 avril — Le CEO Mati Staniszewski annonce qu’ElevenLabs a ajouté plus de 100 millions de dollars de revenu récurrent annuel net en Q1 2026 — leur meilleur trimestre à ce jour. Croissance tirée par les partenariats d’entreprise (Klarna, Revolut, Deutsche Telekom, Toyota).

🔗 Tweet CEO ElevenLabs


Ce que ça signifie

Les routines dans Claude Code représentent un changement de paradigme : l’outil de développement ne répond plus seulement aux demandes interactives, il peut désormais prendre des initiatives planifiées ou réactives dans l’infrastructure d’un projet. La combinaison scheduled + webhook transforme Claude Code en agent permanent sur un dépôt, avec un coût de configuration minimal.

Sur le front de l’open source, GLM-5.1 confirme que les modèles agentiques chinois ont atteint le niveau des meilleurs modèles propriétaires sur les benchmarks de codage. La capacité à maintenir un horizon de 8 heures de travail autonome — avec des milliers d’appels d’outils — ouvre des possibilités concrètes pour des tâches d’optimisation intensive que les modèles traditionnels ne peuvent pas gérer en une seule session.

Gemini Robotics-ER 1.6 illustre une tendance différente : des modèles d’IA générale adaptés aux contraintes physiques du monde réel, avec une collaboration entre logiciel et hardware (Boston Dynamics/Spot) qui produit des capacités nouvelles comme la lecture d’instruments industriels.


Sources