Días intensos los 23 y 24 de marzo: Anthropic despliega el modo automático en Claude Code — un clasificador de acciones que toma las decisiones de aprobación en lugar del usuario — y publica un artículo de ingeniería sobre su arquitectura multiagente inspirada en los GAN. OpenAI lanza las compras visuales en ChatGPT con el Agentic Commerce Protocol, mientras xAI abre Grok Imagine al vídeo multi-imágenes en API. GitHub Copilot, Google DeepMind y el Anthropic Science Blog completan este panorama.
Claude Code: el modo automático, un clasificador entre tú y los comandos
24 de marzo — Claude Code añade un tercer nivel de permisos: el modo automático. Hasta ahora, la herramienta ofrecía aprobar manualmente cada escritura de archivo y comando bash, o desactivar por completo las comprobaciones. El modo automático introduce una vía intermedia: Claude toma él mismo las decisiones, guiado por un clasificador (classifier) que analiza cada acción antes de ejecutarla.
El mecanismo es simple: antes de cada llamada a una herramienta, el clasificador evalúa si la acción es potencialmente destructiva. Las acciones consideradas seguras se ejecutan automáticamente. Las acciones de riesgo se bloquean, y Claude busca una alternativa sin interrumpir al usuario.
Anthropic precisa que este modo reduce los riesgos sin eliminarlos, y recomienda su uso en entornos aislados. Para activarlo: claude --enable-auto-mode, luego navegar a este modo con Shift+Tab.
La funcionalidad está disponible en preversión (research preview) en el plan Team. El despliegue para Enterprise y API estaba anunciado para los días siguientes.
New in Claude Code: auto mode. Instead of approving every file write and bash command, or skipping permissions entirely, auto mode lets Claude make permission decisions on your behalf. Safeguards check each action before it runs.
🇪🇸 Novedad en Claude Code: el modo automático. En lugar de aprobar cada escritura de archivo y cada comando bash, o de omitir por completo los permisos, el modo automático deja que Claude tome las decisiones de aprobación en tu lugar. Las salvaguardas comprueban cada acción antes de que se ejecute. — @claudeai en X
Arquitectura multiagente: el enfoque GAN de Anthropic Engineering
24 de marzo — En un artículo publicado en el Anthropic Engineering Blog, Prithvi Rajasekaran (equipo Labs) describe una arquitectura multiagente para llevar Claude más allá en dos ámbitos: el diseño de interfaz y el desarrollo aplicativo autónomo de larga duración.
El enfoque se inspira en las redes antagónicas generativas (Generative Adversarial Networks, GAN): un agente generador produce el código o el diseño, mientras que un agente evaluador distinto califica el resultado y aporta una retroalimentación crítica. Esta separación resuelve un problema conocido: Claude tiende a autoevaluarse con indulgencia. Un evaluador dedicado, calibrado progresivamente con ejemplos, se convierte en una palanca de mejora eficaz.
Para el diseño frontend, el evaluador recibe acceso al MCP Playwright para navegar por las páginas en vivo. Se utilizan cuatro criterios: calidad y coherencia del diseño, originalidad (penalizando los patrones genéricos llamados “AI slop”), artesanía técnica y funcionalidad. En 10 a 15 iteraciones, el generador produce interfaces notablemente más distintivas.
Para el desarrollo aplicativo, la arquitectura añade un planificador: transforma un prompt de una frase en una especificación de producto completa. Generador y evaluador negocian “contratos de sprint” antes de cada implementación, definiendo los criterios de éxito. El evaluador prueba la aplicación mediante Playwright y puede hacer fracasar un sprint, obligando a una revisión.
| Enfoque | Duración | Coste | Resultado |
|---|---|---|---|
| Agente solo Opus 4.5 | 20 min | 9 $ | Aplicación rota |
| Harness completo | 6 h | 200 $ | Aplicación funcional |
| Harness con Opus 4.6 | 4 h | 124,70 $ | Aplicación funcional + agente Claude integrado |
Con Opus 4.6 — que ya no sufre de “ansiedad de contexto” — el autor pudo simplificar la arquitectura, eliminar los reinicios de sesión y reducir los costes. El principio rector sigue siendo: auditar regularmente el harness para retirar lo que el modelo ya sabe hacer por sí solo.
🔗 Artículo completo 🔗 Anuncio en X
Computer Use en Cowork y Claude Code (macOS, Pro/Max)
23 de marzo — Claude ahora puede usar tu ordenador para realizar tareas directamente. En preversión, esta funcionalidad está disponible en Claude Cowork y Claude Code, solo en macOS.
Claude puede abrir aplicaciones, navegar por el navegador, rellenar hojas de cálculo. La idea: encargar una tarea desde el teléfono, ocuparse de otra cosa y volver a un trabajo terminado. También es posible definir tareas recurrentes: revisar los correos cada mañana, generar un informe cada viernes.
La funcionalidad Computer Use está disponible en los planes Pro y Max, actualizando la aplicación de escritorio y vinculándola con la aplicación móvil.
🔗 Anuncio en X 🔗 Página de producto de Cowork
Anthropic Economic Index: “Learning curves” (5.º informe)
24 de marzo — Anthropic publica su quinto informe del Anthropic Economic Index, titulado “Learning curves”, basado en los datos de uso de Claude en febrero de 2026 (aproximadamente 1 millón de conversaciones, del 5 al 12 de febrero).
El informe documenta dos grandes evoluciones desde noviembre de 2025. Primero, una diversificación de los usos: las diez tareas más frecuentes en Claude.ai ya no representan más que el 19 % del tráfico, frente al 24 % tres meses antes. Esta tendencia se explica en parte por la migración de las tareas de codificación hacia la API, impulsada por el crecimiento de Claude Code.
Después, el efecto “curva de aprendizaje”: los usuarios de larga duración (más de seis meses) muestran una tasa de éxito entre 4 y 5 puntos porcentuales superior. Trabajan en problemas más complejos, colaboran más y delegan menos en modo automático. Los autores ven en ello una señal de aprendizaje mediante la práctica (learning-by-doing), aunque sigue siendo posible un sesgo de supervivencia.
Sobre la elección de modelo, los datos confirman que los usuarios prefieren Opus para las tareas de alto valor: cada tramo de 10 $/h adicionales en el valor estimado de una tarea se acompaña de un aumento de 1,5 puntos en la proporción de uso de Opus en Claude.ai, y de 2,8 puntos en la API.
🔗 Informe completo 🔗 Anuncio en X
Anthropic Science Blog: un nuevo blog para la IA en la investigación científica
23 de marzo — Anthropic lanza el Anthropic Science Blog, dedicado a la intersección entre la IA y la investigación científica. El objetivo es documentar cómo la IA acelera el trabajo de los investigadores y explorar las cuestiones que esta transformación plantea.
El blog publicará tres tipos de contenidos: artículos de fondo sobre resultados concretos con el papel de la IA detallado (Features), guías prácticas por ámbito científico (Workflows), y reseñas de la actualidad del sector (Field notes).
Dos artículos inaugurales acompañan este lanzamiento: “Vibe physics: The AI grad student” de Matthew Schwartz (un físico supervisado por Claude en un cálculo real), y un tutorial sobre la orquestación de Claude Code para tareas científicas de varios días.
Este blog se enmarca en las iniciativas existentes de Anthropic: el programa AI for Science (créditos API para investigadores), Claude for Life Sciences (alianzas con pharma y biotech), y la Genesis Mission.
🔗 Artículo de lanzamiento 🔗 Anuncio en X
Compras visuales en ChatGPT y Agentic Commerce Protocol
24 de marzo — OpenAI lanza una experiencia de compra visual e inmersiva directamente en ChatGPT. Los usuarios pueden recorrer productos visualmente, compararlos lado a lado con detalles (precio, reseñas, características), y refinar su búsqueda en conversación, sin salir de ChatGPT. También es posible subir una foto de inspiración para encontrar artículos similares.
Para impulsar esta funcionalidad, OpenAI amplía el Agentic Commerce Protocol (ACP) al descubrimiento de productos. Este protocolo se convierte en la capa de conexión entre comerciantes y usuarios: los comerciantes comparten sus catálogos vía ACP, y los datos llegan directamente a ChatGPT. Salesforce y Stripe ya están integrados como proveedores externos.
| Detalle | Info |
|---|---|
| Disponibilidad | Todos los usuarios Free, Go, Plus, Pro — despliegue esta semana |
| Carga de imágenes | Foto de inspiración para encontrar artículos similares |
| Comerciantes integrados | Target, Sephora, Nordstrom, Lowe’s, Best Buy, The Home Depot, Wayfair |
| Shopify | Catálogos ya integrados sin acción de los comerciantes |
Walmart es el primer comerciante en ofrecer una app nativa de ChatGPT: desde el descubrimiento en ChatGPT hasta un entorno Walmart con enlace de cuenta, programa de fidelidad y pagos. Disponible en navegador web; iOS y Android, próximamente. Nota: OpenAI abandona su funcionalidad inicial “Instant Checkout”, considerada insuficientemente flexible para los comerciantes, y se centra en el descubrimiento.
OpenAI: políticas de seguridad para adolescentes en código abierto
24 de marzo — OpenAI publica un conjunto de políticas de seguridad en código abierto para ayudar a los desarrolladores a crear experiencias adaptadas a los adolescentes. Estas políticas se presentan como prompts que pueden usarse directamente con gpt-oss-safeguard, el modelo de seguridad open-weight de OpenAI.
El objetivo: permitir a los desarrolladores traducir objetivos de seguridad abstractos en reglas operativas precisas. Se cubren seis ámbitos:
| Ámbito | Descripción |
|---|---|
| Contenido violento gráfico | Filtrado de la violencia explícita |
| Contenido sexual gráfico | Filtrado de la sexualidad explícita |
| Ideales corporales peligrosos | Trastornos alimentarios, comportamientos de riesgo |
| Actividades y desafíos peligrosos | Retos virales de riesgo |
| Juegos de rol románticos o violentos | Interacciones inapropiadas |
| Bienes y servicios reservados a adultos | Alcohol, tabaco, juegos de azar |
Estas políticas han sido desarrolladas con Common Sense Media y everyone.ai. Publicadas a través de la ROOST Model Community (RMC GitHub), se presentan explícitamente como un punto de partida, no como una solución completa.
OpenAI Foundation: al menos 1.000 millones de dólares desplegados
24 de marzo — Bret Taylor, presidente del consejo de administración de la OpenAI Foundation, anuncia que la Fundación comienza a desplegar los recursos derivados de la recapitalización del otoño de 2025. Se invertirá al menos 1.000 millones de dólares durante el año en cuatro ámbitos: ciencias de la vida (Alzheimer, enfermedades de alta mortalidad), empleo e impacto económico, resiliencia IA (seguridad infantil, bioseguridad) y programas comunitarios.
OpenAI: pestaña Library para gestionar archivos en ChatGPT
23 de marzo — OpenAI añade nuevas funciones de gestión de archivos en ChatGPT: archivos recientes accesibles directamente desde la barra de herramientas, posibilidad de consultar un documento ya subido, y una pestaña Library en la barra lateral web para encontrar todos los archivos. Disponible para suscriptores Plus, Pro y Business, con un despliegue próximo para el Espacio Económico Europeo, Suiza y el Reino Unido.
Gemini 3.1 Flash-Lite: un navegador que genera las páginas en tiempo real
24 de marzo — Google DeepMind publica una demostración de Gemini 3.1 Flash-Lite: un navegador experimental que genera cada página web sobre la marcha, a medida que se hacen clics, búsquedas y navegación. No hay ninguna página HTML preexistente: cada contenido es creado en tiempo real por el modelo. La demo está accesible directamente desde Google AI Studio y ha generado una gran participación (85.000 vistas en unas horas).
🔗 Demo AI Studio 🔗 Anuncio en X
Google DeepMind × Agile Robots: asociación robótica
24 de marzo — Google DeepMind anuncia una asociación de investigación con Agile Robots, especialista en robótica humanoide. El acuerdo prevé integrar los modelos fundamentales Gemini en el hardware robótico de Agile Robots, en el marco de la estrategia Gemini Robotics de Google DeepMind.
Grok Imagine: vídeo multi-imágenes en API (#1 Arena Elo 1342)
24 de marzo — xAI anuncia dos nuevas capacidades para su API Grok Imagine: la generación de vídeo a partir de varias imágenes (multi-image to video) y la extensión de vídeo existente (video extension).
Los desarrolladores pueden enviar hasta 7 imágenes de entrada para generar un vídeo coherente mediante el modelo grok-imagine-video. La API funciona de forma asíncrona: se envía la solicitud y luego se consulta hasta el estado done. Las salidas admiten la proporción 16:9 en 720p.
Según Design Arena, Grok Imagine ha ocupado de inmediato el primer puesto del ranking Multi Image to Video Arena con una puntuación Elo de 1342.
🔗 Anuncio @grok 🔗 Documentación de la API Imagine
GitHub Copilot: @copilot para modificar directamente una PR
24 de marzo — GitHub Copilot ahora puede modificar directamente cualquier pull request a petición. Al mencionar @copilot en un comentario con una instrucción en lenguaje natural — corregir tests fallidos, responder a un comentario de revisión, añadir un test unitario — el agente trabaja en su entorno cloud, valida su trabajo con los tests y linters, y luego envía los cambios a la rama. El comportamiento anterior (abrir una nueva PR) sigue disponible si se solicita explícitamente. Disponible en todos los planes de pago de Copilot.
GitHub Copilot: Gemini 3.1 Pro en JetBrains, Xcode y Eclipse
23 de marzo — GitHub Copilot amplía la disponibilidad de Gemini 3.1 Pro a los IDEs JetBrains, Xcode y Eclipse. Le modèle ya está ahora accesible a través del selector de modelos de Copilot en todos los modos (agent, ask, edit) en estos entornos, además de las plataformas ya compatibles. En preview pública para los planes Enterprise, Business, Pro y Pro+.
GitHub Copilot: gestión del acceso del agent por repositorio vía API
24 de marzo — GitHub publica en preview pública una API REST para gestionar el acceso del Copilot coding agent a nivel de los repositorios de organización. Los administradores pueden autorizar al agent en ninguno, todos o ciertos repositorios específicos de forma programática — útil para los despliegues a gran escala en empresa.
GitHub Copilot: logs en directo en Raycast
20 de marzo — La extensión GitHub Copilot para Raycast (el launcher de macOS/Windows) permite ahora supervisar en directo los logs del coding agent sin salir del launcher. Mediante el comando “View Tasks”, y luego seleccionando la sesión, los desarrolladores siguen el progreso del agent en tiempo real. Disponible para todos los suscriptores de Copilot de pago.
Lo que eso significa
El auto mode de Claude Code es el cambio más estructurante de este periodo. Desplaza la carga cognitiva del usuario —ya no hace falta aprobar cada comando— al mismo tiempo que mantiene una red de seguridad mediante el clasificador. Es un paso hacia agents de desarrollo más autónomos, pero dentro de un marco explícitamente recomendado para entornos aislados. El artículo de ingeniería sobre el harness multi-agents completa este panorama: la trayectoria de Anthropic va claramente hacia agents que trabajan durante mucho tiempo y de forma autónoma, con estructuras internas de supervisión (evaluador dedicado, contratos de sprint) en lugar de una supervisión humana en cada etapa.
Por el lado de OpenAI, el shopping visual en ChatGPT marca un giro hacia los casos de uso comerciales de consumo masivo. El Agentic Commerce Protocol posiciona ChatGPT como una capa de intermediación entre comerciantes y consumidores —una estrategia distinta de la API pura, que apunta directamente al valor transaccional.
Grok Imagine, que alcanza el primer puesto del ranking Arena desde su lanzamiento en el multi-image to video, ilustra la velocidad con la que xAI itera en la generación de vídeo. GitHub Copilot, por su parte, refuerza sistemáticamente la autonomía de su coding agent: la capacidad de modificar directamente una PR existente reduce todavía más los intercambios entre el agent y el desarrollador.
Fuentes
- Claude Code auto mode — @claudeai en X
- Computer Use en Cowork — @claudeai en X
- Anthropic Engineering Blog — Harness multi-agents
- Anthropic Economic Index — Curvas de aprendizaje
- Anthropic Science Blog — Lanzamiento
- Shopping visual ChatGPT — OpenAI
- Políticas de seguridad para adolescentes — OpenAI
- OpenAI Foundation — Inversión
- Library tab ChatGPT — @OpenAI en X
- Flash-Lite Browser — @GoogleDeepMind en X
- Asociación Google DeepMind × Agile Robots
- Grok Imagine vídeo — @grok en X
- Documentación API Grok Imagine
- Copilot @copilot en las PR — GitHub Changelog
- Gemini 3.1 Pro en JetBrains/Xcode/Eclipse — GitHub Changelog
- API acceso del agent por repositorio — GitHub Changelog
- Logs de Copilot en Raycast — GitHub Changelog
Este documento ha sido traducido de la versión fr al idioma es utilizando el modelo gpt-5.4-mini. Para más información sobre el proceso de traducción, consulte https://gitlab.com/jls42/ai-powered-markdown-translator