El 14 de abril de 2026 marca una jornada intensa para las herramientas de desarrollo asistidas por IA: Anthropic lanza las routines en Claude Code, permitiendo automatizar workflows enteros mediante planificación o a través de webhook, sin tener que dejar el ordenador encendido. Google DeepMind publica Gemini Robotics-ER 1.6 con nuevas capacidades de percepción industrial desarrolladas con Boston Dynamics. Z.ai abre GLM-5.1 bajo licencia MIT, clasificado como número 1 de los modelos open source en SWE-Bench Pro. GitHub Copilot añade tres funcionalidades útiles: resolución de conflictos en tres clics, residencia de datos US/EU y selección de modelo para agentes de terceros.
Routines en Claude Code — investigación preliminar (research preview)
14 de abril — Anthropic lanza las routines en Claude Code en research preview. Una routine es una automatización configurada una sola vez —con un prompt, un repositorio y conectores— que luego se ejecuta de forma autónoma, sin que el usuario permanezca conectado.
Tres tipos de desencadenantes están disponibles:
| Type | Desencadenante | Ejemplo de uso |
|---|---|---|
| Programada (Scheduled) | Cron (horario, noche, semana) | Triage nocturno de bugs Linear, apertura de PR de corrección |
| API | Llamada HTTP POST a un endpoint dedicado | Alerta Datadog → triage automático + borrador de corrección |
| Webhook | Eventos GitHub (PR, push…) | Revisión de código automática en cada PR abierta |
Cada routine dispone de su propio endpoint y token de autenticación. Las routines API se integran en cualquier pipeline existente (alertas, hooks de despliegue, herramientas internas). Las routines webhook inician una nueva sesión para cada PR que coincida con los filtros definidos, y alimentan la sesión con las actualizaciones posteriores (comentarios, fallos de integración continua).
“Configure a routine once (a prompt, a repo, and your connectors), and it can run on a schedule, from an API call, or in response to an event. Routines run on our web infrastructure, so you don’t have to keep your laptop open.”
🇪🇸 Configura una routine una sola vez (un prompt, un repositorio y tus conectores), y puede ejecutarse según un planning, a partir de una llamada API, o en respuesta a un evento. Las routines se ejecutan en nuestra infraestructura web, así que no hace falta dejar tu ordenador encendido. — @claudeai en X
Disponibilidad y límites:
| Plan | Routines/día |
|---|---|
| Pro | 5 |
| Max | 15 |
| Team / Enterprise | 25 |
Disponible en todos los planes de pago (Pro, Max, Team, Enterprise) con Claude Code web activado. Más allá de las cuotas, sigue siendo posible un uso adicional. Las routines consumen los créditos de suscripción igual que las sesiones interactivas.
Casos de uso documentados:
- Gestión de backlog: triage nocturno, etiquetado, resumen Slack
- Duplicación de documentación (docs drift): escaneo semanal de las PR fusionadas, detección de páginas que hay que actualizar
- Verificación posdespliegue: tests de humo (smoke checks) después de cada release
- Portado de SDK: cada PR Python fusionada desencadena automáticamente un portado al SDK Go
🔗 Blog Anthropic 🔗 Tweet de anuncio
Claude Code v2.1.105 — hooks PreCompact, monitores de plugins, /proactive
Del 11 al 13 de abril — La versión 2.1.105 de Claude Code aporta varias mejoras destacables:
| Funcionalidad | Descripción |
|---|---|
Parámetro path para EnterWorktree | Permite cambiar a un worktree existente del repositorio actual |
| Hook PreCompact | Los hooks ahora pueden bloquear la compactación (código de salida 2 o {"decision":"block"}) |
| Background monitors para plugins | Clave monitors en el manifiesto del plugin — armado automáticamente al inicio de sesión |
/proactive | Nuevo alias para /loop |
| Abandono de Streams API bloqueados | Abandono tras 5 minutos sin datos + retry en modo non-streaming |
| Mensajes de error de red | Visualización inmediata de un mensaje de retry en lugar de un spinner silencioso |
| Visualización de archivos largos | Las escrituras single-line muy largas (por ejemplo: JSON minimizado) se truncan en la interfaz |
/doctor mejorado | Iconos de estado + tecla f para pedir a Claude que corrija los problemas detectados |
14 de abril — La versión 2.1.107 aporta una mejora de interfaz: los indicios de progreso (thinking hints) se muestran ahora antes durante las operaciones largas, reduciendo la sensación de espera sin retorno visual.
Anthropic — Vas Narasimhan se une al consejo de administración
14 de abril — El Long-Term Benefit Trust (LTBT) de Anthropic ha nombrado a Vas Narasimhan miembro del consejo de administración. Médico-científico y CEO de Novartis, supervisó el desarrollo y la aprobación de más de 35 medicamentos innovadores en uno de los sectores más regulados del mundo.
Con este nombramiento, los directores designados por el Trust constituyen ahora la mayoría del consejo. El LTBT es un órgano independiente cuyos miembros no tienen ningún interés financiero en Anthropic —su función es mantener el equilibrio entre el éxito comercial y la misión de beneficio público a largo plazo.
Gemini Robotics-ER 1.6 — percepción industrial y seguridad
14 de abril — Google DeepMind publica Gemini Robotics-ER 1.6, actualización de su modelo de razonamiento encarnado (embodied reasoning) para robótica. El modelo mejora la comprensión visual y espacial para permitir a los robots planificar y ejecutar tareas reales con más autonomía. Supera a Gemini Robotics-ER 1.5 y Gemini 3.0 Flash en los benchmarks robóticos internos.
Nuevas capacidades:
| Capacidad | Descripción |
|---|---|
| Puntería espacial (Pointing) | Detección y conteo de objetos, lógica relacional (más pequeño/grande), trayectorias y puntos de agarre, restricciones complejas |
| Detección de éxito multivista | Analiza varios ángulos de cámara para verificar que una tarea se ha completado realmente |
| Lectura de instrumentos | Lee manómetros circulares y tubos transparentes (sight glasses) — desarrollado con Boston Dynamics para la inspección industrial |
| Seguridad (benchmark ASIMOV v2) | Mejor puntuación entre todos los modelos probados en el cumplimiento de las instrucciones de seguridad |
La capacidad de lectura de instrumentos nació de la colaboración con Boston Dynamics para el robot Spot, utilizado en las inspecciones de instalaciones industriales. Combina razonamiento espacial y ejecución de código para interpretar manómetros de presión con alta precisión.
Disponibilidad: Gemini API (gemini-robotics-er-1.6-preview), Google AI Studio y notebook de inicio en GitHub Colab.
🔗 Blog Google DeepMind 🔗 Tweet de anuncio
GLM-5.1 — Z.ai abre su modelo agéntico bajo licencia MIT
7 de abril (anuncio recuperado — pasó desapercibido durante el escaneo de la semana pasada) — Z.ai (anteriormente ZhipuAI) ha publicado GLM-5.1, su nuevo modelo insignia para el codificado agéntico (agentic coding), disponible en open source bajo licencia MIT.
Rendimiento en los benchmarks de código:
| Benchmark | GLM-5.1 | GLM-5 | Claude Opus 4.6 | GPT-5.4 | Gemini 3.1 Pro |
|---|---|---|---|---|---|
| SWE-Bench Pro | 58,4 | 55,1 | 57,3 | 57,7 | 54,2 |
| NL2Repo | 42,7 | 35,9 | 49,8 | 41,3 | 33,4 |
| Terminal-Bench 2.0 | 63,5 | 56,2 | 65,4 | — | 68,5 |
GLM-5.1 se clasifica como número 1 en open source y tercero a nivel mundial en SWE-Bench Pro, Terminal-Bench y NL2Repo.
La diferencia clave: el horizonte largo. Los modelos anteriores, incluido GLM-5, mejoran rápidamente su rendimiento al principio y luego se estancan. GLM-5.1 está diseñado para seguir siendo eficaz en tareas agénticas durante horizontes mucho más largos: puede trabajar de forma autónoma durante 8 horas, afinando sus estrategias a lo largo de miles de llamadas a herramientas.
Tres escenarios ilustran esta capacidad:
- Optimización de base vectorial sobre 600 iteraciones: GLM-5.1 alcanza 21 500 consultas por segundo en VectorDBBench, es decir, 6 veces el mejor resultado obtenido en una sesión de 50 turnos.
- Optimización de núcleos GPU sobre 1 000+ turnos: aceleración de 3,6 veces en KernelBench Nivel 3.
- Construcción de un escritorio Linux en 8 horas: a partir de una simple instrucción en lenguaje natural, GLM-5.1 produce un entorno de escritorio completo en el navegador (explorador de archivos, terminal, editor, monitor del sistema).
Disponibilidad: pesos open source en HuggingFace (zai-org/GLM-5.1), API en api.z.ai y BigModel.cn, compatible con Claude Code, Cline, Roo Code, Kilo Code y OpenCode.
🔗 Blog GLM-5.1 🔗 Tweet de anuncio
Codex CLI v0.120.0 — difusión en tiempo real de los agentes
11 de abril — La versión 0.120.0 del Codex CLI se publica como versión estable. Aporta varias mejoras funcionales:
| Funcionalidad | Detalle |
|---|---|
| Realtime V2 | Difunde el progreso de los agentes en segundo plano en tiempo real, pone en cola las respuestas siguientes |
| Hooks TUI mejorados | Los hooks activos se muestran por separado, el historial de hooks completados se aligera |
| Título de thread en el estado | Los estados TUI personalizados pueden incluir el título del thread renombrado |
| Esquema de salida code-mode | Las declaraciones de herramientas code-mode incluyen ahora los detalles outputSchema MCP |
| Hooks SessionStart | Distingue las sesiones creadas por /clear de los inicios o reanudaciones |
La versión también incluye varias correcciones de errores: gestión de los sandboxes Windows elevados, panics durante conexiones WebSocket TLS, conservación del orden de los resultados de búsqueda de herramientas.
GitHub Copilot — tres nuevas funcionalidades
Selección de modelo para agentes de terceros
14 de abril — Ahora es posible elegir el modelo al lanzar una tarea con los agentes Claude (Anthropic) y Codex (OpenAI) en github.com.
| Agent | Modelos disponibles |
|---|---|
| Claude | Claude Sonnet 4.6, Claude Opus 4.6, Claude Sonnet 4.5, Claude Opus 4.5 |
| Codex | GPT-5.2-Codex, GPT-5.3-Codex, GPT-5.4 |
Incluido con la suscripción Copilot existente (Business o Enterprise), pero el administrador debe activar las políticas correspondientes a nivel de empresa u organización.
🔗 Changelog de selección de modelo
Resolución de conflictos de merge en tres clics
13 de abril — Aparece un nuevo botón “Fix with Copilot” en las pull requests con conflictos de merge. En tres clics, Copilot cloud agent resuelve los conflictos, verifica que el build y los tests pasan, y luego hace push desde su entorno cloud aislado. La mención @copilot en las PR también permite corregir workflows de GitHub Actions que fallan o responder a comentarios de code review. Disponible en todos los planes Copilot de pago.
🔗 Changelog conflictos de merge
Residencia de datos US/EU y conformidad FedRAMP
13 de abril — GitHub Copilot ahora soporta la residencia de datos para las regiones US y EU: todas las inferencias y datos asociados permanecen en la zona geográfica designada. Los clientes gubernamentales estadounidenses además se benefician de la conformidad FedRAMP Moderate. Las solicitudes data-resident llevan un recargo del 10% sobre el multiplicador de premium requests. Los modelos Gemini todavía no están soportados (GCP aún no ofrece endpoints de inferencia con residencia de datos). Japón y Australia están en la hoja de ruta para 2026.
🔗 Changelog de residencia de datos
Media generativa — Runway, Luma, MiniMax, ElevenLabs
Runway Characters en las videollamadas
14 de abril — Runway despliega una actualización de Characters que permite enviar su avatar IA a una llamada de vídeo de Zoom, Google Meet o Teams. El procedimiento: elegir o crear un Character → pegar el enlace de la reunión → hacer clic en “Join Meeting”. La funcionalidad, inicialmente disponible como API para desarrolladores desde el 9 de marzo, ahora es accesible para todos los usuarios desde la aplicación Runway.
Luma — dictado por voz y animación de logo
14 de abril — Luma Labs lanza dos nuevas funcionalidades: la dictée vocale en su aplicación (el usuario habla, la descripción se convierte en prompt de generación) y la animación cinemática de logo (subir su logo, el agent produce una entrada animada orientada al branding).
🔗 Tweet dictado por voz · Tweet animación logo
MiniMax — tres Music Skills open source para agents
14 de abril — MiniMax abre en open source tres Music Skills para agents: minimax-music-gen (generación de una canción completa desde un prompt, con elección automática entre original, instrumental y versión), buddy-sings (el agent IA canta como compañero vocal) y Playlist curation (curación de playlists desde la biblioteca del usuario). Estos componentes están destinados a la integración en agentes M2.7.
ElevenLabs — 100 millones de dólares de ingreso recurrente neto en Q1 2026
13 de abril — El CEO Mati Staniszewski anuncia que ElevenLabs ha añadido más de 100 millones de dólares de ingreso recurrente anual neto en Q1 2026 —su mejor trimestre hasta la fecha. Crecimiento impulsado por las alianzas empresariales (Klarna, Revolut, Deutsche Telekom, Toyota).
Qué significa esto
Las routines en Claude Code representan un cambio de paradigma: la herramienta de desarrollo ya no solo responde a solicitudes interactivas, sino que ahora puede tomar iniciativas programadas o reactivas dentro de la infraestructura de un proyecto. La combinación scheduled + webhook transforma Claude Code en un agente permanente sobre un repositorio, con un coste de configuración mínimo.
En el frente del open source, GLM-5.1 confirma que los modelos agénticos chinos han alcanzado el nivel de los mejores modelos propietarios en los benchmarks de codificación. La capacité à maintenir un horizon de 8 heures de travail autonome — avec des milliers d’appels d’outils — ouvre des possibilités concrètes pour des tâches d’optimisation intensive que les modèles traditionnels ne peuvent pas gérer en une seule session.
Gemini Robotics-ER 1.6 illustre une tendance différente : des modèles d’IA générale adaptés aux contraintes physiques du monde réel, avec une collaboration entre logiciel et hardware (Boston Dynamics/Spot) qui produit des capacités nouvelles comme la lecture d’instruments industriels.
Sources
- Blog Anthropic — Routines Claude Code
- Tweet @claudeai — Routines
- CHANGELOG Claude Code
- Anthropic — Nomination Vas Narasimhan
- Blog Google DeepMind — Gemini Robotics-ER 1.6
- Tweet @GoogleDeepMind — Gemini Robotics-ER 1.6
- Blog Z.ai — GLM-5.1
- Tweet @Zai_org — GLM-5.1
- Release Codex CLI v0.120.0
- GitHub Changelog — Sélection de modèle agents tiers
- GitHub Changelog — Merge conflicts Copilot
- GitHub Changelog — Data residency US/EU FedRAMP
- Tweet @runwayml — Characters vidéo call
- Tweet @LumaLabsAI — Voice dictation
- Tweet @LumaLabsAI — Logo animation
- Tweet @MiniMax_AI — Music Skills
- Tweet CEO ElevenLabs — 100M ARR
Este documento ha sido traducido de la versión fr a la lengua es utilizando el modelo gpt-5.4-mini. Para más información sobre el proceso de traducción, consulte https://gitlab.com/jls42/ai-powered-markdown-translator