Claude Security en beta pública — auditoría de código por Claude Opus 4.7
30 de abril — Anthropic abre Claude Security en beta pública para los clientes Claude Enterprise. Este producto, antes conocido como Claude Code Security, analiza las bases de código en busca de vulnerabilidades razonando como un investigador de seguridad humano, y no mediante una simple coincidencia de patrones estáticos.
“Claude Security is now in public beta for Claude Enterprise customers. Claude scans your codebase for vulnerabilities, validates each finding to cut false positives, and suggests patches you can review and approve.”
🇪🇸 Claude Security ahora está en beta pública para los clientes Claude Enterprise. Claude analiza tu base de código en busca de vulnerabilidades, valida cada hallazgo para reducir los falsos positivos y propone parches que puedes revisar y aprobar. — @claudeai en X
La herramienta utiliza Claude Opus 4.7 para realizar análisis multiagente en paralelo del código, validar cada resultado para reducir los falsos positivos —una de las principales críticas a los escáneres clásicos— y proponer correcciones concretas que los equipos pueden revisar y aprobar. Desde la previsualización de febrero de 2026, cientos de organizaciones han probado la herramienta sobre código de producción, informando de ciclos desde el escaneo hasta el parche aplicado en pocas horas.
Las novedades de la beta pública incluyen la planificación de escaneos regulares (para una cobertura continua, no solo auditorías puntuales) y la posibilidad de centrarse en un directorio específico del repositorio.
| Aspecto | Detalle |
|---|---|
| Disponibilidad | Beta pública, solo Claude Enterprise |
| Modelo | Claude Opus 4.7 |
| Acceso | claude.ai/security o barra lateral claude.ai |
| Vista previa | Desde febrero de 2026 — cientos de organizaciones |
| Nuevas funciones | Escaneos programados, enfoque por directorio |
| Socios integrados | CrowdStrike, Palo Alto Networks, SentinelOne, TrendAI, Wiz |
Anthropic también integra Opus 4.7 en las plataformas de seguridad de sus socios: CrowdStrike (Falcon platform, Project Quiltworks), Palo Alto Networks, SentinelOne (Wayfinder AI), TrendAI y Wiz (Red Agent). Los administradores Enterprise pueden activar Claude Security desde la consola de administración.
🔗 Blog oficial de Claude Security
Manus Cloud Computer — una máquina Ubuntu 24/7 sin programar
30 de abril — Manus lanza Cloud Computer, una máquina virtual cloud dedicada, siempre encendida, que cambia de forma fundamental lo que pueden construir y automatizar los usuarios sin perfil de desarrollador.
Hasta ahora, hacer funcionar un programa de manera continua 24 horas al día requería alquilar servidores, configurar un sistema operativo y escribir código, una barrera reservada a los desarrolladores. Cloud Computer elimina esa barrera permitiendo describir un objetivo en lenguaje natural: Manus escribe el código y configura el entorno.
“Introducing Cloud Computer for Manus. Your always on machine in the cloud, so anything you build keeps running.”
🇪🇸 Presentación de Cloud Computer para Manus. Tu máquina siempre activa en la nube, para que todo lo que construyas siga funcionando. — @ManusAI en X
La persistencia 24/7 contrasta con el sandbox temporal de Manus, que se cierra después de cada sesión. Cloud Computer mantiene un sistema de archivos Ubuntu compartido entre sesiones, permitiendo a Manus apoyarse en el trabajo anterior.
| Entorno Manus | Caso de uso |
|---|---|
| Temporary Sandbox | Análisis, documentos, apps web puntuales |
| Manus Desktop | Control de archivos y aplicaciones en máquina local |
| Cloud Computer | Bots 24/7, bases de datos persistentes, scrapers programados |
Casos de uso concretos documentados: bots de Slack, Discord o WhatsApp activos de forma continua, bases de datos MySQL con informes semanales automáticos, scrapers de vigilancia de precios, autoalojamiento de herramientas open source (Home Assistant, Metabase, WordPress, Plausible). Tres planes (Basic, Standard, Advanced) permiten elegir los recursos de CPU, memoria y almacenamiento según las necesidades. Acceso posible mediante SSH o terminal web desde el panel de Manus.
🔗 Blog de Manus Cloud Computer
NVIDIA OpenShell — sandbox open source para agentes IA en empresa
2 de mayo — NVIDIA anuncia OpenShell, un entorno sandbox (caja de arena) open source diseñado para asegurar los agentes IA desplegados en empresa. Presentado por Jensen Huang, CEO de NVIDIA, en un video publicado el 2 de mayo de 2026, la herramienta controla con precisión a qué pueden acceder, compartir y enviar los agentes.
Al optar por el open source, NVIDIA apuesta por la transparencia y la auditabilidad: cualquier empresa puede inspeccionar el código, adaptarlo a sus necesidades y confiar en él. Este posicionamiento responde directamente a las preocupaciones de los equipos de seguridad que frenan la adopción enterprise de los LLM por temor a la exfiltración de datos o a acciones no deseadas.
OpenShell se inscribe en la estrategia más amplia de NVIDIA en torno a la seguridad de la inferencia agentica, como complemento de Dynamo (enrutamiento KV-aware) y NIM (APIs optimizadas Blackwell). El bloqueo que aborda es precisamente el que retrasa el despliegue de agentes autónomos en entornos sensibles: la imposibilidad, para los equipos de TI, de supervisar y restringir el perímetro de acción de los agentes.
| Aspecto | Detalle |
|---|---|
| Tipo | Sandbox open source |
| Presentado por | Jensen Huang (CEO NVIDIA) |
| Función | Control de acceso / compartición / envío de los agentes IA |
| Posicionamiento | Complementario a Dynamo y NIM |
| Compromiso | 13K+ vistas en pocas horas |
xAI Voice Cloning via API — voz personalizada en menos de 2 minutos
2 de mayo — xAI lanza la clonación de voz (voice cloning) a través de su API pública. Los desarrolladores ahora pueden crear una voz personalizada en menos de dos minutos o elegir entre una selección de voces predefinidas.
“Voice Cloning is now live via the xAI API! Create a custom voice in less than 2 minutes or select from our preset voices.”
🇪🇸 ¡La clonación de voz ya está disponible a través de la API de xAI! Crea una voz personalizada en menos de 2 minutos o elige entre nuestras voces predefinidas. — @xai en X
El anuncio generó un compromiso excepcional de 19,7 millones de vistas en pocas horas, lo que lo convierte en uno de los anuncios más virales de la semana en el ecosistema IA. Esta funcionalidad se inscribe en la estrategia de xAI de ofrecer capacidades multimodales avanzadas vía API, tras el lanzamiento de Grok Voice Think Fast 1.0 la semana anterior.
| Métrica | Valor |
|---|---|
| Vistas | 19,7 M |
| Reposts | 820 |
| Me gusta | 5 641 |
| Guardados | 2 481 |
| Tiempo de creación | Menos de 2 minutos |
Los casos de uso se extienden desde la creación de contenido de audio hasta asistentes personalizados y aplicaciones interactivas. La disponibilidad vía API abre la puerta a la integración en productos de terceros.
Claude Code — Lecciones sobre el prompt caching
30 de abril — El equipo Claude Code publica un artículo técnico firmado por Thariq Shihipar (staff técnico de Claude Code) sobre sus prácticas de prompt caching. Mensaje central: para un agente long-running, el prompt caching no es una optimización opcional, sino la arquitectura base.
La estructura del prompt se organiza de lo más estable a lo más dinámico: tools y system prompt (caché global compartida entre sesiones), contexto del proyecto (caché por proyecto), contexto de la sesión y, por último, conversación dinámica. Cualquier cambio en la parte estable invalida todo lo que sigue, algo que el equipo trata como un incidente interno.
Tres patrones documentados: (1) nunca modificar las herramientas durante una sesión —Claude Code utiliza EnterPlanMode/ExitPlanMode como herramientas invocables por el modelo—; (2) las decenas de herramientas MCP se cargan como stubs defer_loading: true en lugar de retirarse del prompt; (3) la compactación de contexto utiliza un fork con un prefijo idéntico al del padre para maximizar los cache hits.
🔗 Artículo Claude Code Prompt Caching
Claude API Skill en CodeRabbit, JetBrains, Resolve AI y Warp
29 de abril — Anthropic amplía la skill claude-api a cuatro nuevos entornos de desarrollo: CodeRabbit, JetBrains (y su agente Junie), Resolve AI y Warp. La skill ya estaba disponible en Claude Code.
| Herramienta | Integración |
|---|---|
| Claude Code | Ya disponible |
| CodeRabbit | Nuevo |
| JetBrains / Junie | Nuevo |
| Resolve AI | Nuevo |
| Warp | Nuevo |
Su función: dar a los desarrolladores un experto Claude API integrado en su herramienta habitual, que conoce las reglas de prompt caching, los patrones de agentes, la configuración de Claude Managed Agents y las migraciones de modelos. La skill se mantiene actualizada automáticamente con cada evolución de la API. Es open source en GitHub (anthropics/skills).
Code with Claude — Conferencia para desarrolladores semana del 5 de mayo
1 de mayo — Anthropic anuncia el regreso de su conferencia para desarrolladores Code with Claude para la semana del 5 de mayo de 2026. El evento está dirigido a todos los niveles de experiencia con Claude Code —principiantes y desarrolladores confirmados— y se retransmitirá en livestream. Las inscripciones están abiertas en claude.com/code-with-claude.
El anuncio suscitó más de 630 000 vistas en pocas horas, señal de un interés sostenido en la comunidad de desarrolladores. La conferencia sigue a una primera edición que marcó el ecosistema Claude Code, con Tokio mencionado por participantes como posible ubicación física para algunas sesiones.
🔗 Inscripción Code with Claude
Anthropic — Estudio sobre la orientación personal mediante Claude (1M conversaciones)
30 de abril — Anthropic publica un estudio que analiza cómo los usuarios de Claude formulan preguntas de orientación personal, basado en el análisis de un millón de conversaciones. El análisis se realiza con Clio, la herramienta de insights con preservación de la privacidad desarrollada internamente. Este estudio se enmarca en un enfoque destinado a comprender los impactos sociales de Claude para informar el entrenamiento futuro de los modelos, cerrando el bucle entre uso real y desarrollo responsable de la IA.
BioMysteryBench — Benchmark bioinformático de Anthropic
30 de abril — Anthropic publica BioMysteryBench, un nuevo benchmark de evaluación de las capacidades de investigación bioinformática de Claude. La eval incluye 99 problemas construidos a partir de datos biológicos reales, en los que Claude debe adivinar el tipo de datos y diseñar soluciones creativas, simulando el trabajo de un investigador frente a datos desconocidos. El objetivo es medir si Claude puede competir con expertos humanos en bioinformática en tareas de investigación reales y abiertas, en lugar de benchmarks estándar.
Google DeepMind AI co-clinician — agentes médicos multimodales
30 de abril — Google DeepMind anuncia una nueva iniciativa de investigación bautizada AI co-clinician (co-clínico IA). El objetivo es explorar cómo los agentes multimodales podrían apoyar mejor a los profesionales de la salud en su trabajo diario.
Para garantizar la seguridad de los pacientes, el sistema se basa en una arquitectura de doble agente (dual agent): un agente principal realiza los análisis, mientras que un segundo agente integrado verifica y valida las decisiones antes de cualquier acción. Esta arquitectura de supervisión busca mantener la vigilancia humana en el centro del dispositivo, un requisito previo para la adopción médica. El anuncio suscitó más de 314 000 vistas en pocas horas.
🔗 Anuncio Google DeepMind AI co-clinician
NotebookLM Notebooks en la app Gemini — disponibilidad móvil Free y Paid
30 de abril — NotebookLM anuncia que sus Notebooks ya están disponibles en móvil en la app Gemini, para todos los usuarios Free y Paid. El despliegue en países europeos adicionales está previsto próximamente. Esta disponibilidad móvil sigue a la integración inicial del 8 de abril de 2026 en escritorio y marca una etapa significativa: los usuarios ahora pueden organizar sus proyectos, acceder a sus notebooks personales y usar NotebookLM en movimiento, desde la aplicación Gemini en smartphone.
Gemini CLI v0.40.0 — búsqueda offline ripgrep, memoria de 4 niveles, Gemma local
28 de abril — La versión v0.40.0 de Gemini CLI introduce varias mejoras para desarrolladores.
| Funcionalidad | Detalle |
|---|---|
| Versión | v0.40.0 |
| Búsqueda offline | ripgrep integrado en bundle |
| Memoria | Nuevo sistema de 4 niveles jerárquicos |
| Modelos locales | Comando gemini gemma simplificado |
| Temas | Temas daltonianos inspirados en GitHub |
| Recursos MCP | Herramientas de recursos MCP introducidas |
Gemini CLI integra ahora ripgrep en bundle, permitiendo la búsqueda local en el código sin conexión de red. El sistema de memoria pasa a una arquitectura de cuatro niveles impulsada por prompts. La configuración y el uso de modelos Gemma en local se simplifican gracias al comando dedicado gemini gemma.
GitHub Copilot en Visual Studio — actualización de abril de 2026
30 de abril — GitHub publica la actualización de abril de Copilot para Visual Studio, centrada en los flujos de trabajo agénticos.
| Funcionalidad | Descripción |
|---|---|
| Agente cloud desde el IDE | Iniciar sesiones de agente cloud sin salir de Visual Studio |
| Agentes personalizados portables | Definiciones a nivel de usuario en %USERPROFILE%/.github/agents/ |
| Agent skills ampliados | Descubrimiento desde .claude/skills/ y .agents/skills/ |
| Agente de depuración | Reproduce, instrumenta, diagnostica y corrige a partir de una issue |
| C++ Code Editing Tools | Disponibilidad general (get_symbol_call_hierarchy, etc.) |
El agente cloud permite seleccionar “Cloud” en el selector de agentes, describir una tarea, y Copilot crea automáticamente una issue de GitHub y una pull request en la infraestructura remota mientras el desarrollador sigue trabajando. El agente de depuración valida las correcciones frente al comportamiento real en tiempo de ejecución.
🔗 Changelog de GitHub Copilot Visual Studio de abril de 2026
Genspark × Microsoft — asociación estratégica global sobre Azure
30 de abril — Genspark anuncia a Microsoft como socio estratégico global. Construida sobre Azure, esta asociación pretende integrar los agentes de IA de Genspark directamente en las herramientas cotidianas de Microsoft — especialmente PowerPoint y otras aplicaciones de Microsoft 365. El objetivo declarado es incorporar la ejecución de IA directamente en las herramientas existentes, sin obligar a los usuarios a cambiar sus hábitos de trabajo. Este anuncio sigue de cerca la asociación con Salesforce anunciada el 29 de abril y representa una expansión significativa de Genspark en el ecosistema de Microsoft.
🔗 Anuncio Genspark × Microsoft
NVIDIA NeMo-RL + vLLM Speculative Decoding — 1,8× de rendimiento en RL
1 de mayo — NVIDIA Research publica un artículo sobre la aceleración del post-entrenamiento por refuerzo (reinforcement learning post-training). El problema central: la fase de generación (rollout) crea un cuello de botella que ralentiza todo el bucle de RL.
La solución combina NeMo-RL y vLLM con decodificación especulativa (speculative decoding) — una técnica que genera tokens candidatos en paralelo sin pérdida de calidad.
| Métrica | Valor |
|---|---|
| Rendimiento medido (modelos 8B) | 1,8× |
| Proyección end-to-end | 2,5× |
| Código | Open source en NVIDIA-NeMo/RL |
Runway — aplicación móvil en Android e iOS
2 de mayo — Runway anuncia el lanzamiento de su aplicación móvil en Android, además de la aplicación iOS ya disponible. La plataforma de generación de vídeo con IA ya es accesible en las dos principales plataformas móviles, permitiendo crear contenido desde cualquier dispositivo.
Esta disponibilidad móvil amplía significativamente la accesibilidad de Runway, hasta ahora utilizado principalmente a través del navegador web. El lema del anuncio — “Make anything. From anywhere. On any device.” — resume el reto: sacar la creación de vídeo con IA de la oficina y llevarla al bolsillo de los creadores. La aplicación de Android se puede descargar en Google Play Store.
ElevenCreative Flows — colaboración en tiempo real y Basic Seats
1 de mayo — ElevenLabs activa la colaboración en tiempo real en ElevenCreative Flows, su plataforma de creación de contenido de audio y vídeo asistida por IA. Varios miembros de un equipo (creadores, marketers, partes interesadas) pueden ahora trabajar simultáneamente en los mismos proyectos. Los Basic Seats permiten a revisores y managers acceder a los proyectos sin una suscripción completa a ElevenCreative. El anuncio generó 769 000 visualizaciones, señal de un interés notable por esta funcionalidad colaborativa.
🔗 Anuncio ElevenCreative Flows
Grok Imagine — modo agente en canvas infinito
1 de mayo — Grok Imagine lanza su modo Agent (Agent Mode) en un canvas infinito para escritorio. Esta interfaz unificada permite realizar todo el flujo creativo — ideación, redacción, generación de imágenes, edición y creación de vídeos — sin salir de grok.com/imagine.
El canvas infinito (infinite canvas) representa una evolución en el diseño de herramientas de creación con IA: en lugar de encadenar varias herramientas especializadas, todo el proceso creativo transcurre de forma continua en un único espacio de trabajo, disponible solo en escritorio.
| Métrica | Valor |
|---|---|
| Visualizaciones | 7,9 M |
| Me gusta | 3 825 |
| Disponibilidad | Solo escritorio |
🔗 Anuncio Grok Imagine Agent Mode
Qwen-Scope — suite open source de sparse autoencoders
30 de abril — Qwen publica Qwen-Scope, una suite open source de autoencoders dispersos (sparse autoencoders, SAE) dedicada a la interpretabilidad y al control de los modelos de la familia Qwen. Los SAE descomponen las activaciones internas de un modelo en características comprensibles, que Qwen-Scope convierte en herramientas prácticas para cuatro ámbitos:
| Ámbito | Aplicación |
|---|---|
| Inferencia | Controlar las salidas sin ingeniería de prompts |
| Datos | Clasificar y sintetizar datos específicos |
| Entrenamiento | Identificar de raíz los problemas (code-switching, repeticiones) |
| Evaluación | Analizar los patrones de activación para elegir los benchmarks adecuados |
El código, los pesos y el informe técnico están disponibles en HuggingFace y ModelScope.
Codex CLI v0.128.0 — objetivos persistentes, keymaps, MultiAgentV2
30 de abril — La versión 0.128.0 de Codex CLI aporta varias mejoras sustanciales.
La novedad principal es el comando /goal, que permite definir objetivos persistentes (persisted goals) gestionados por las API de app-server. Un objetivo puede crearse, pausarse, reanudarse o eliminarse directamente desde la interfaz TUI.
| Funcionalidad | Descripción |
|---|---|
/goal persistente | Objetivos gestionados por API de app-server con controles TUI |
codex update | Actualización in situ |
| Keymaps configurables | Atajos de teclado TUI personalizables |
| MultiAgentV2 ampliado | Thread caps, wait-time controls, profundidad de subagentes |
| Importar agentes externos | Sesiones de agentes importadas en segundo plano |
Instalación: npm install -g @openai/codex@0.128.0
OpenAI Advanced Account Security — protección reforzada opcional
30 de abril — OpenAI lanza Advanced Account Security, un conjunto de protecciones reforzadas opcionales para las cuentas de ChatGPT y Codex. Este ajuste está dirigido a usuarios con alto riesgo de ataques digitales: periodistas, cargos electos, disidentes políticos, investigadores.
Una vez activado: los inicios de sesión con contraseña se desactivan (solo se aceptan passkeys o claves de seguridad físicas compatibles con FIDO), la recuperación por correo electrónico y SMS se elimina, las sesiones se acortan y las conversaciones se excluyen automáticamente del entrenamiento de los modelos. Una colaboración con Yubico ofrece YubiKeys a precio preferencial desde los ajustes de seguridad. A partir del 1 de junio de 2026, los miembros del programa Trusted Access for Cyber deberán activar esta protección.
🔗 OpenAI Advanced Account Security
GPT-5.5 — balance de una semana: ingresos de API x2, Codex duplica su facturación
1 de mayo — OpenAI presenta un balance de GPT-5.5 una semana después de su lanzamiento: los ingresos de la API crecen a un ritmo más de dos veces superior al de cualquier lanzamiento anterior.
| Métrica | Valor |
|---|---|
| Ingresos de API vs. lanzamientos anteriores | Crecimiento >2x más rápido |
| Ingresos de Codex en 7 días | x2 |
| Calificativo de OpenAI | ”Lanzamiento más fuerte de nuestra historia” |
Codex ha duplicado su facturación en menos de siete días — señal de una demanda empresarial sostenida de herramientas de desarrollo agéntico (agentic coding tools). Estas cifras confirman la dinámica en torno a GPT-5.5, lanzado el 23 de abril.
🔗 Anuncio de OpenAI sobre el balance de GPT-5.5
Perplexity Computer en el trabajo — Teams, finanzas profesionales, 70+ workflows
30 de abril — Perplexity publica una entrada de blog que detalla la expansión de su agente de automatización Computer a nuevas superficies.
| Extensión | Detalle |
|---|---|
| Microsoft Teams | Después de Slack (lanzado a principios de abril) |
| Workflows disponibles | Biblioteca de 70+ workflows enterprise |
| Computer for Professional Finance | Finanzas de mercado, due diligence, capital privado |
| Seguridad de identidades | Nuevo socio anunciado |
Computer estaba disponible inicialmente en Slack. Perplexity lo amplía a Microsoft Teams, permitiendo automatizar tareas directamente dentro de la herramienta de mensajería. Las próximas superficies anunciadas son los documentos y las hojas de cálculo. Para las finanzas profesionales, la oferta se dirige a equipos de capital privado, analistas financieros y equipos de due diligence.
🔗 Blog Perplexity Computer en el trabajo
Breves
-
Hackathon Claude Code Opus 4.7 — ganadores anunciados — Coorganizado con Cerebral Valley, el premio “Best Use of Claude Managed Agents” recae en ARIA, un agente de mantenimiento desarrollado por el equipo francés Idriss Benguezzou y Adam Hnaien. 🔗 Anuncio
-
Anthropic Fellows — introspection adapters — Investigadores de Anthropic Fellows publican trabajos sobre los “introspection adapters”: adaptadores que permiten a un LLM señalar por sí mismo comportamientos no deseados potencialmente aprendidos durante el entrenamiento. 🔗 Anuncio
-
Guía de despliegue enterprise Claude Cowork — Anthropic publica una nueva guía práctica sobre el despliegue de Claude Cowork a gran escala en las organizaciones. 🔗 Guía
-
Descontinuación de GPT-5.2 y GPT-5.2-Codex en Copilot el 1 de junio de 2026 — GitHub descontinúa GPT-5.2 (sustituido por GPT-5.5) y GPT-5.2-Codex (sustituido por GPT-5.3-Codex) en todas las experiencias Copilot, salvo GPT-5.2-Codex en Copilot Code Review. 🔗 Changelog
-
Midjourney V8.1 — actualización de calidad y nitidez — Midjourney lanza una actualización que mejora la calidad de imagen y la nitidez del modelo V8.1. 🔗 Anuncio
-
Qwen + Fireworks AI partnership — Asociación oficial entre Qwen y Fireworks AI para desplegar los modelos Qwen con menor latencia y costes de inferencia reducidos para equipos enterprise. 🔗 Anuncio
-
Mistral AI en el TIME100 Most Influential Companies 2026 — Mistral figura en el top 10 de la categoría IA del ranking TIME100 de las empresas más influyentes del mundo. 🔗 Anuncio
-
Z.ai “Scaling Pain” — depuración de GLM-5 en producción — Z.ai publica un informe técnico sobre la reproducción de salidas corruptas poco frecuentes, los cuellos de botella de rendimiento en prefill y el consumo de memoria GPU de GLM-5 a escala. 🔗 Blog · Anuncio
-
Codex — importación de workflows desde ChatGPT — Los ajustes, plugins, agentes y configuraciones de proyecto pueden importarse en Codex con unos pocos clics, con conmutación desde ChatGPT en caso de rate limit. 🔗 Anuncio
-
Codex for Work — roles y aplicaciones cotidianas — Nueva experiencia de Codex orientada al trabajo: elección de rol, conexión de las aplicaciones utilizadas, sugerencias de prompts para documentos, presentaciones y hojas de cálculo. 🔗 Anuncio
-
Codex Pets — mascota interactiva — El comando
/peten Codex despierta una mascota virtual interactiva. 1,57 millones de visualizaciones, tuit fijado en @OpenAIDevs. 🔗 Anuncio
Lo que esto significa
La convergencia de los anuncios de esta semana dibuja una tendencia clara: la seguridad enterprise se convierte en la principal palanca de diferenciación de los actores de IA. Claude Security y OpenAI Advanced Account Security se dirigen ambas a organizaciones y usuarios con alto riesgo — dos enfoques complementarios, uno a nivel de código y el otro a nivel de cuenta. NVIDIA OpenShell aporta una tercera capa al controlar el perímetro de acción de los agentes autónomos. La IA enterprise entra en una fase de madurez en la que la confianza y la auditabilidad priman sobre la carrera por los benchmarks.
La democratización de la infraestructura agéntica avanza de forma concreta. Manus Cloud Computer y Perplexity Computer at Work apuntan ambos a no desarrolladores capaces de hacer funcionar servicios de forma continua — uno mediante una máquina Ubuntu persistente, el otro mediante workflows enterprise en Teams y Slack. Estos dos productos reducen la fricción técnica de forma complementaria: Cloud Computer para quienes construyen, Computer for Work para quienes automatizan procesos empresariales.
La voz sintética entra en una nueva fase de accesibilidad. El Voice Cloning de xAI vía API en menos de 2 minutos, con 19,7 millones de visualizaciones de engagement, ilustra el apetito del mercado por capacidades multimodales integrables directamente en productos de terceros. Grok Imagine Agent Mode y ElevenCreative Flows se inscriben en la misma lógica: reducir la fricción entre la idea y la creación de contenido audio-visual.
Las cifras del lanzamiento de GPT-5.5 (ingresos de API x2, Codex duplicando su facturación en 7 días) confirman que la demanda enterprise de agentes de código es ya una realidad comercial medible, y no solo una promesa. Esta dinámica justifica las inversiones concomitantes en infraestructura RL (NeMo-RL speculative decoding en NVIDIA) y en herramientas de interpretabilidad (Qwen-Scope), que atacan los cuellos de botella del post-entrenamiento a escala.
Fuentes
- https://x.com/claudeai/status/2049898739783897537
- https://claude.com/blog/claude-security-public-beta
- https://claude.com/product/claude-security
- https://claude.com/blog/lessons-from-building-claude-code-prompt-caching-is-everything
- https://claude.com/blog/claude-api-skill
- https://github.com/anthropics/skills/tree/main/skills/claude-api
- https://x.com/claudeai/status/2050252933866930339
- https://x.com/AnthropicAI/status/2049927618397614466
- https://x.com/AnthropicAI/status/2049624600741560340
- https://x.com/claudeai/status/2049523899918934384
- https://x.com/AnthropicAI/status/2049576143653929153
- https://claude.com/blog/new-guide-deploying-claude-across-the-enterprise-with-claude-cowork
- https://x.com/ManusAI/status/2049870078896963962
- https://manus.im/fr/blog/manus-cloud-computer
- https://github.blog/changelog/2026-04-30-github-copilot-in-visual-studio-april-update/
- https://x.com/genspark_ai/status/2049747536303518194
- https://github.blog/changelog/2026-05-01-upcoming-deprecation-of-gpt-5-2-and-gpt-5-2-codex/
- https://x.com/GoogleDeepMind/status/2049867061279457761
- https://x.com/NotebookLM/status/2049904264731078912
- https://github.com/google-gemini/gemini-cli/blob/main/docs/changelogs/index.md
- https://x.com/NVIDIAAI/status/2050336285428998202
- https://x.com/NVIDIAAI/status/2050304249699950739
- https://github.com/NVIDIA-NeMo/RL
- https://x.com/runwayml/status/2050270993487212712
- https://x.com/ElevenLabs/status/2050100453589852452
- https://x.com/midjourney/status/2049973065094947125
- https://x.com/xai/status/2050355373052223585
- https://x.ai/news/grok-custom-voices
- https://x.com/imagine/status/2050327174629228889
- https://x.com/Alibaba_Qwen/status/2049861145574690992
- https://x.com/Alibaba_Qwen/status/2050232280082522505
- https://x.com/MistralAI/status/2049988769928056852
- https://x.com/Zai_org/status/2049601030170857891
- https://z.ai/blog/scaling-pain
- https://developers.openai.com/codex/changelog
- https://openai.com/index/advanced-account-security/
- https://x.com/OpenAI/status/2050250926888468929
- https://x.com/OpenAI/status/2050290618187055175
- https://x.com/OpenAI/status/2049928776147230886
- https://x.com/OpenAIDevs/status/2050275713824211041
- https://www.perplexity.ai/hub/blog/computer-at-work
Este documento ha sido traducido de la versión fr al idioma es utilizando el modelo gpt-5.4-mini. Para obtener más información sobre el proceso de traducción, consulte https://github.com/jls42/ai-powered-markdown-translator