Le 14 avril 2026 marque une journée dense pour les outils de développement assistés par l’IA : Anthropic lance les routines dans Claude Code, permettant d’automatiser des workflows entiers sur planification ou via webhook, sans garder son ordinateur allumé. Google DeepMind publie Gemini Robotics-ER 1.6 avec de nouvelles capacités de perception industrielle développées avec Boston Dynamics. Z.ai ouvre GLM-5.1 sous licence MIT, classé numéro 1 des modèles open source sur SWE-Bench Pro. GitHub Copilot ajoute trois fonctionnalités utiles : résolution de conflits en trois clics, résidence des données US/EU et sélection de modèle pour les agents tiers.
Routines dans Claude Code — recherche préliminaire (research preview)
14 avril — Anthropic lance les routines dans Claude Code en research preview. Une routine est une automatisation configurée une seule fois — avec un prompt, un dépôt et des connecteurs — qui s’exécute ensuite de manière autonome, sans que l’utilisateur reste connecté.
Trois types de déclencheurs sont disponibles :
| Type | Déclencheur | Exemple d’usage |
|---|---|---|
| Planifiée (Scheduled) | Cron (horaire, nuit, semaine) | Triage nightly des bugs Linear, ouverture de PR de correction |
| API | Appel HTTP POST vers un endpoint dédié | Alerte Datadog → triage automatique + brouillon de correctif |
| Webhook | Événements GitHub (PR, push…) | Revue de code automatique sur chaque PR ouverte |
Chaque routine dispose de son propre endpoint et token d’authentification. Les routines API s’intègrent dans n’importe quel pipeline existant (alertes, hooks de déploiement, outils internes). Les routines webhook démarrent une nouvelle session pour chaque PR correspondant aux filtres définis, et alimentent la session avec les mises à jour suivantes (commentaires, échecs d’intégration continue).
“Configure a routine once (a prompt, a repo, and your connectors), and it can run on a schedule, from an API call, or in response to an event. Routines run on our web infrastructure, so you don’t have to keep your laptop open.”
🇫🇷 Configurez une routine une seule fois (un prompt, un dépôt et vos connecteurs), et elle peut s’exécuter sur un planning, à partir d’un appel API, ou en réponse à un événement. Les routines tournent sur notre infrastructure web, donc inutile de garder votre ordinateur allumé. — @claudeai sur X
Disponibilité et limites :
| Plan | Routines/jour |
|---|---|
| Pro | 5 |
| Max | 15 |
| Team / Enterprise | 25 |
Disponible sur tous les plans payants (Pro, Max, Team, Enterprise) avec Claude Code web activé. Au-delà des quotas, un usage supplémentaire reste possible. Les routines consomment les crédits d’abonnement comme les sessions interactives.
Cas d’usage documentés :
- Gestion de backlog : triage nightly, étiquetage, résumé Slack
- Dérive de documentation (docs drift) : scan hebdomadaire des PR fusionnées, détection des pages à mettre à jour
- Vérification post-déploiement : tests de fumée (smoke checks) après chaque release
- Portage de SDK : chaque PR Python fusionnée déclenche automatiquement un portage vers le SDK Go
🔗 Blog Anthropic 🔗 Tweet d’annonce
Claude Code v2.1.105 — hooks PreCompact, monitors de plugins, /proactive
11 au 13 avril — La version 2.1.105 de Claude Code apporte plusieurs améliorations notables :
| Fonctionnalité | Description |
|---|---|
Paramètre path pour EnterWorktree | Permet de basculer vers un worktree existant du dépôt courant |
| Hook PreCompact | Les hooks peuvent désormais bloquer la compaction (code de sortie 2 ou {"decision":"block"}) |
| Background monitors pour plugins | Clé monitors dans le manifeste de plugin — armé automatiquement au démarrage de session |
/proactive | Nouvel alias pour /loop |
| Abandon des Streams API bloqués | Abandon après 5 minutes sans données + retry en mode non-streaming |
| Messages d’erreur réseau | Affichage immédiat d’un message de retry au lieu d’un spinner silencieux |
| Affichage fichiers longs | Les écritures single-line très longues (ex : JSON minifié) sont tronquées dans l’interface |
/doctor amélioré | Icônes de statut + touche f pour demander à Claude de corriger les problèmes détectés |
14 avril — La version 2.1.107 apporte une amélioration d’interface : les indices de progression (thinking hints) s’affichent désormais plus tôt lors des opérations longues, réduisant la sensation d’attente sans retour visuel.
Anthropic — Vas Narasimhan rejoint le conseil d’administration
14 avril — Le Long-Term Benefit Trust (LTBT) d’Anthropic a nommé Vas Narasimhan au conseil d’administration. Médecin-scientifique et PDG de Novartis, il a supervisé le développement et l’approbation de plus de 35 médicaments innovants dans l’un des secteurs les plus réglementés au monde.
Avec cette nomination, les directeurs nommés par le Trust constituent désormais la majorité du conseil. Le LTBT est un organe indépendant dont les membres n’ont aucun intérêt financier dans Anthropic — son rôle est de maintenir l’équilibre entre succès commercial et mission de bénéfice public à long terme.
Gemini Robotics-ER 1.6 — perception industrielle et sécurité
14 avril — Google DeepMind publie Gemini Robotics-ER 1.6, mise à jour de son modèle de raisonnement incarné (embodied reasoning) pour la robotique. Le modèle améliore la compréhension visuelle et spatiale pour permettre aux robots de planifier et d’exécuter des tâches réelles avec plus d’autonomie. Il surpasse Gemini Robotics-ER 1.5 et Gemini 3.0 Flash sur les benchmarks robotiques internes.
Nouvelles capacités :
| Capacité | Description |
|---|---|
| Pointage spatial (Pointing) | Détection et comptage d’objets, logique relationnelle (plus petit/grand), trajectoires et points de préhension, contraintes complexes |
| Détection de succès multi-vues | Analyse plusieurs angles de caméra pour vérifier qu’une tâche est réellement accomplie |
| Lecture d’instruments | Lit jauges circulaires et tubes transparents (sight glasses) — développé avec Boston Dynamics pour l’inspection industrielle |
| Sécurité (benchmark ASIMOV v2) | Meilleur score parmi tous les modèles testés sur le respect des consignes de sécurité |
La capacité de lecture d’instruments est née de la collaboration avec Boston Dynamics pour le robot Spot, utilisé dans les inspections d’installations industrielles. Elle combine raisonnement spatial et exécution de code pour interpréter des jauges de pression avec haute précision.
Disponibilité : Gemini API (gemini-robotics-er-1.6-preview), Google AI Studio, et notebook de démarrage sur GitHub Colab.
🔗 Blog Google DeepMind 🔗 Tweet d’annonce
GLM-5.1 — Z.ai ouvre son modèle agentique sous licence MIT
7 avril (annonce rattrapée — passée sous le radar lors du scan de la semaine dernière) — Z.ai (anciennement ZhipuAI) a publié GLM-5.1, son nouveau modèle phare pour le codage agentique (agentic coding), disponible en open source sous licence MIT.
Performances sur les benchmarks de code :
| Benchmark | GLM-5.1 | GLM-5 | Claude Opus 4.6 | GPT-5.4 | Gemini 3.1 Pro |
|---|---|---|---|---|---|
| SWE-Bench Pro | 58,4 | 55,1 | 57,3 | 57,7 | 54,2 |
| NL2Repo | 42,7 | 35,9 | 49,8 | 41,3 | 33,4 |
| Terminal-Bench 2.0 | 63,5 | 56,2 | 65,4 | — | 68,5 |
GLM-5.1 se classe numéro 1 en open source et troisième mondial sur SWE-Bench Pro, Terminal-Bench et NL2Repo.
La différence clé : l’horizon long. Les modèles précédents, y compris GLM-5, améliorent rapidement leurs performances dans un premier temps, puis plafonnent. GLM-5.1 est conçu pour rester efficace sur des tâches agentiques sur des horizons beaucoup plus longs : il peut travailler de manière autonome pendant 8 heures, en affinant ses stratégies au fil de milliers d’appels d’outils.
Trois scénarios illustrent cette capacité :
- Optimisation de base vectorielle sur 600 itérations : GLM-5.1 atteint 21 500 requêtes par seconde sur VectorDBBench, soit 6 fois le meilleur résultat obtenu en une session de 50 tours.
- Optimisation de noyaux GPU sur 1 000+ tours : accélération de 3,6 fois sur KernelBench Niveau 3.
- Construction d’un bureau Linux en 8 heures : à partir d’une simple invite en langage naturel, GLM-5.1 produit un environnement de bureau complet dans le navigateur (explorateur de fichiers, terminal, éditeur, moniteur système).
Disponibilité : poids open source sur HuggingFace (zai-org/GLM-5.1), API sur api.z.ai et BigModel.cn, compatible Claude Code, Cline, Roo Code, Kilo Code et OpenCode.
🔗 Blog GLM-5.1 🔗 Tweet d’annonce
Codex CLI v0.120.0 — diffusion en temps réel des agents
11 avril — La version 0.120.0 du Codex CLI est publiée comme version stable. Elle apporte plusieurs améliorations fonctionnelles :
| Fonctionnalité | Détail |
|---|---|
| Realtime V2 | Diffuse la progression des agents en arrière-plan en temps réel, met en file d’attente les réponses suivantes |
| Hooks TUI améliorés | Les hooks actifs s’affichent séparément, l’historique des hooks complétés est allégé |
| Titre de thread dans le statut | Les statuts TUI personnalisés peuvent inclure le titre du thread renommé |
| Schéma de sortie code-mode | Les déclarations d’outils code-mode incluent désormais les détails outputSchema MCP |
| Hooks SessionStart | Distingue les sessions créées par /clear des démarrages ou reprises |
La version inclut également plusieurs corrections de bugs : gestion des sandboxes Windows élevés, panics lors de connexions WebSocket TLS, conservation de l’ordre des résultats de recherche d’outils.
GitHub Copilot — trois nouvelles fonctionnalités
Sélection de modèle pour les agents tiers
14 avril — Il est désormais possible de choisir le modèle lors du lancement d’une tâche avec les agents Claude (Anthropic) et Codex (OpenAI) sur github.com.
| Agent | Modèles disponibles |
|---|---|
| Claude | Claude Sonnet 4.6, Claude Opus 4.6, Claude Sonnet 4.5, Claude Opus 4.5 |
| Codex | GPT-5.2-Codex, GPT-5.3-Codex, GPT-5.4 |
Inclus avec l’abonnement Copilot existant (Business ou Enterprise), mais l’administrateur doit activer les politiques correspondantes au niveau de l’entreprise ou de l’organisation.
🔗 Changelog sélection de modèle
Résolution de conflits de merge en trois clics
13 avril — Un nouveau bouton “Fix with Copilot” apparaît sur les pull requests avec des conflits de merge. En trois clics, Copilot cloud agent résout les conflits, vérifie que le build et les tests passent, puis pousse depuis son environnement cloud isolé. La mention @copilot dans les PR permet aussi de corriger des workflows GitHub Actions qui échouent ou d’adresser des commentaires de code review. Disponible sur tous les plans Copilot payants.
Résidence des données US/EU et conformité FedRAMP
13 avril — GitHub Copilot supporte désormais la résidence des données pour les régions US et EU : toutes les inférences et données associées restent dans la zone géographique désignée. Les clients gouvernementaux américains bénéficient en plus de la conformité FedRAMP Moderate. Les requêtes data-resident portent une majoration de 10% sur le multiplicateur de premium requests. Les modèles Gemini ne sont pas encore supportés (GCP ne propose pas encore d’endpoints d’inférence avec résidence des données). Japon et Australie sont sur la feuille de route pour 2026.
Media générative — Runway, Luma, MiniMax, ElevenLabs
Runway Characters dans les appels vidéo
14 avril — Runway déploie une mise à jour des Characters permettant d’envoyer son avatar IA dans un appel vidéo Zoom, Google Meet ou Teams. La procédure : choisir ou créer un Character → coller le lien de réunion → cliquer “Join Meeting”. La fonctionnalité, initialement disponible comme API pour développeurs depuis le 9 mars, est désormais accessible à tous les utilisateurs depuis l’application Runway.
Luma — dictée vocale et animation de logo
14 avril — Luma Labs lance deux nouvelles fonctionnalités : la dictée vocale dans son application (l’utilisateur parle, la description est convertie en prompt de génération) et l’animation de logo cinématique (uploader son logo, l’agent produit une entrée animée orientée branding).
🔗 Tweet dictée vocale · Tweet animation logo
MiniMax — trois Music Skills open source pour agents
14 avril — MiniMax ouvre en open source trois Music Skills pour agents : minimax-music-gen (génération d’un morceau complet depuis un prompt, avec choix automatique entre original, instrumental et reprise), buddy-sings (l’agent IA chante en tant que compagnon vocal), et Playlist curation (curation de playlist depuis la bibliothèque de l’utilisateur). Ces composants sont destinés à l’intégration dans des agents M2.7.
ElevenLabs — 100 millions de dollars de revenu récurrent net en Q1 2026
13 avril — Le CEO Mati Staniszewski annonce qu’ElevenLabs a ajouté plus de 100 millions de dollars de revenu récurrent annuel net en Q1 2026 — leur meilleur trimestre à ce jour. Croissance tirée par les partenariats d’entreprise (Klarna, Revolut, Deutsche Telekom, Toyota).
Ce que ça signifie
Les routines dans Claude Code représentent un changement de paradigme : l’outil de développement ne répond plus seulement aux demandes interactives, il peut désormais prendre des initiatives planifiées ou réactives dans l’infrastructure d’un projet. La combinaison scheduled + webhook transforme Claude Code en agent permanent sur un dépôt, avec un coût de configuration minimal.
Sur le front de l’open source, GLM-5.1 confirme que les modèles agentiques chinois ont atteint le niveau des meilleurs modèles propriétaires sur les benchmarks de codage. La capacité à maintenir un horizon de 8 heures de travail autonome — avec des milliers d’appels d’outils — ouvre des possibilités concrètes pour des tâches d’optimisation intensive que les modèles traditionnels ne peuvent pas gérer en une seule session.
Gemini Robotics-ER 1.6 illustre une tendance différente : des modèles d’IA générale adaptés aux contraintes physiques du monde réel, avec une collaboration entre logiciel et hardware (Boston Dynamics/Spot) qui produit des capacités nouvelles comme la lecture d’instruments industriels.
Sources
- Blog Anthropic — Routines Claude Code
- Tweet @claudeai — Routines
- CHANGELOG Claude Code
- Anthropic — Nomination Vas Narasimhan
- Blog Google DeepMind — Gemini Robotics-ER 1.6
- Tweet @GoogleDeepMind — Gemini Robotics-ER 1.6
- Blog Z.ai — GLM-5.1
- Tweet @Zai_org — GLM-5.1
- Release Codex CLI v0.120.0
- GitHub Changelog — Sélection de modèle agents tiers
- GitHub Changelog — Merge conflicts Copilot
- GitHub Changelog — Data residency US/EU FedRAMP
- Tweet @runwayml — Characters vidéo call
- Tweet @LumaLabsAI — Voice dictation
- Tweet @LumaLabsAI — Logo animation
- Tweet @MiniMax_AI — Music Skills
- Tweet CEO ElevenLabs — 100M ARR