Buscar

OpenAI DeployCo se lanza con 4 mil millones, Claude Platform en AWS disponible, Grok Voice Think Fast 1.0

OpenAI DeployCo se lanza con 4 mil millones, Claude Platform en AWS disponible, Grok Voice Think Fast 1.0

ai-powered-markdown-translator

Artículo traducido del fr al es con gpt-5.4-mini.

Ver proyecto en GitHub ↗

El 11 de mayo de 2026 marca una jornada intensa: OpenAI lanza una filial de despliegue enterprise con una inversión inicial de USD 4 mil millones, Anthropic pone Claude Platform en AWS a disposición de todos los clientes de AWS, y xAI presenta Grok Voice Think Fast 1.0 para la atención al cliente por voz en tiempo real. En el ámbito de las herramientas, GitHub Copilot da un paso adelante con la gestión de secretos a nivel de organización, Gemini introduce Personal Intelligence para la planificación de viajes personalizados, y NVIDIA publica OpenShell v0.0.37.


OpenAI Deployment Company — filial enterprise con USD 4 mil millones

11 de mayo — OpenAI lanza OpenAI Deployment Company (apodada “DeployCo”), una entidad dedicada a ayudar a las organizaciones a integrar y desplegar sistemas de IA directamente en sus operaciones críticas. No se trata de una oferta cloud más: DeployCo envía Forward Deployed Engineers directamente a las instalaciones de los clientes para identificar oportunidades de IA de alto valor, rediseñar los flujos de trabajo y desplegarlos en producción.

Estructura y socios:

CategoríaSocios
Inversor líderTPG
Co-fundadoresAdvent, Bain Capital, Brookfield
Socios fundadoresB Capital, BBVA, Emergence Capital, Goldman Sachs, SoftBank Corp., Warburg Pincus, WCAS, Goanna
Consejo / integraciónBain & Company, Capgemini, McKinsey & Company

Adquisición de Tomoro: OpenAI integra desde el lanzamiento a Tomoro, una consultora de IA aplicada cuyos clientes incluyen Tesco, Virgin Atlantic y Supercell. La adquisición aporta alrededor de 150 ingenieros experimentados (Forward Deployed Engineers y Deployment Specialists). La finalización está sujeta a las aprobaciones regulatorias.

Cifras clave: USD 4 mil millones de inversión inicial, más de 2.000 empresas respaldadas por los socios, más de un millón de empresas que ya usan los productos y APIs de OpenAI. DeployCo es mayoritariamente propiedad de OpenAI y está controlada por ella.

“AI is becoming capable of doing increasingly meaningful work inside organizations. The challenge now is helping companies integrate these systems into the infrastructure and workflows that power their businesses. DeployCo is designed to help organizations bridge that gap and turn AI capability into real operational impact.”

🇪🇸 “La IA está llegando a ser capaz de realizar un trabajo cada vez más significativo dentro de las organizaciones. El reto ahora consiste en ayudar a las empresas a integrar estos sistemas en la infraestructura y los flujos de trabajo que hacen funcionar sus negocios. DeployCo está diseñada para ayudar a las organizaciones a salvar esa brecha y transformar la capacidad de la IA en un impacto operativo real.” — Denise Dresser, Chief Revenue Officer de OpenAI

🔗 Anuncio oficial de OpenAI


Claude Platform on AWS — disponibilidad general

11 de mayo — Anthropic pone oficialmente Claude Platform on AWS a disposición de todos los clientes de AWS. Esta oferta es distinta de Claude en Amazon Bedrock: da acceso directo al conjunto completo de la API nativa de Claude, con autenticación mediante AWS IAM, registro mediante CloudTrail y facturación consolidada en la cuenta de AWS.

Funciones incluidas:

FunciónEstadoDescripción
Claude Managed AgentsBetaConstrucción y despliegue de agentes a gran escala
Advisor strategyBetaConsulta de un modelo consejero para enriquecer los agentes
Web search + web fetchGAAcceso a datos en tiempo real
Code executionGAPython, visualizaciones, análisis de datos
Files APIBetaCarga de documentos persistentes entre conversaciones
SkillsBetaEnseñanza de buenas prácticas a Claude
MCP connectorBetaConexión a cualquier servidor MCP remoto sin código cliente
Prompt cachingGAReducción de costes sobre contexto repetido
CitationsGAAnclaje de las respuestas en los documentos fuente
Batch processingGAWorkloads asíncronos de gran volumen

Los modelos disponibles son Claude Opus 4.7, Sonnet 4.6 y Haiku 4.5. Los nuevos modelos se desplegarán simultáneamente en Claude Platform on AWS y a través de la API directa de Anthropic.

Diferencia con Amazon Bedrock: Bedrock opera dentro del perímetro de AWS con AWS como procesador de datos — adecuado para empresas sujetas a requisitos estrictos de residencia de datos. Claude Platform on AWS da acceso a todas las funciones nativas de la API de Claude desde la infraestructura de AWS, con AWS como capa de acceso únicamente.

Disponibilidad: La mayoría de las regiones comerciales de AWS, con cumplimiento global y estadounidense (incluido GovCloud).

🔗 Blog de Claude Platform on AWS


Grok Voice Think Fast 1.0 — agente de voz en tiempo real para la atención al cliente

8 de mayo — xAI lanza Grok Voice Think Fast 1.0, un agente de voz diseñado para la atención al cliente en producción. El posicionamiento es explícito: un agente de voz “construido para el mundo real”, capaz de gestionar conversaciones en tiempo real con los usuarios finales — no solo demos internas. El anuncio acumuló 70 millones de visualizaciones en 3 días en X, lo que señala un interés significativo del mercado.

El anuncio describe un agente que gestiona los escenarios clásicos de atención al cliente por voz: preguntas sobre productos, resolución de problemas, escalado. El posicionamiento “Think Fast” sugiere una arquitectura optimizada para la latencia — un criterio crítico para los despliegues de voz en producción, donde cualquier pausa de más de 500 ms degrada la experiencia del usuario.

Contexto de mercado: El anuncio de Grok Voice Think Fast 1.0 se inscribe en una carrera por el agente de voz para la atención al cliente. OpenAI había lanzado GPT-Realtime-2 el 7 de mayo (cubierto en el artículo del 10 de mayo). ElevenLabs despliega agentes de voz en Mahindra para un lanzamiento automovilístico (cf. Breves). Cada actor principal posiciona ahora una oferta de agente de voz enterprise.

Disponibilidad: Accesible a través de las APIs de xAI. Precio no especificado en el anuncio.

🔗 Tweet de @xai


Gemini Personal Intelligence — itinerarios de viaje a medida

11 de mayo — Gemini lanza Personal Intelligence, una función que conecta la aplicación Gemini con los datos personales del usuario para crear itinerarios de viaje completamente personalizados. Las fuentes de datos disponibles: Gmail (historial de viajes, confirmaciones de reserva), Google Photos (destinos visitados), Google Search (preferencias de búsqueda) y YouTube (contenidos vistos).

Funcionamiento:

AspectoDetalle
Caso de uso principalPlanificación de viajes personalizada
Fuentes de datosGmail, Google Photos, Google Search, YouTube
Control del usuarioElección de las aplicaciones conectadas, gestión de los ajustes en cualquier momento
DisponibilidadAplicación Gemini (iOS/Android)

El usuario elige qué aplicaciones conectar y puede modificar sus preferencias de personalización en cualquier momento. La función se inscribe en la hoja de ruta hacia Google I/O 2026 (19 de mayo), donde se esperan anuncios más amplios sobre las capacidades agénticas de Gemini. Personal Intelligence amplía Gemini Agent (lanzado con Gemini 3 en noviembre de 2025) haciendo accesible la personalización a través de los datos existentes del usuario en Google.

🔗 Tweet de @GeminiApp


GitHub Copilot cloud agent — secretos y variables a nivel de organización

8 de mayo — GitHub da un paso significativo para los equipos enterprise: Copilot cloud agent dispone ahora de su propia sección dedicada “Agents” para secretos y variables, distinta de las secciones “Actions”, “Codespaces” y “Dependabot”. La novedad principal es la configuración a nivel de organización — una primicia para Copilot cloud agent.

Qué cambia concretamente:

AntesDespués
Secretos configurados repositorio por repositorioConfiguración centralizada a nivel de organización
Duplicación en cada repositorioUn secreto organizacional accesible para todos los repositorios seleccionados
Gestión fragmentadaSección “Agents” dedicada en los ajustes del repositorio y de la organización

Esto facilita el despliegue a gran escala de configuraciones compartidas: registros de paquetes privados, servidores MCP comunes, tokens de API compartidos. El control granular sigue disponible: para cada secreto o variable, el administrador elige a qué repositorios les da acceso.

🔗 GitHub Changelog — Secretos y variables de Copilot cloud agent


Herramientas para desarrolladores — actualizaciones

GitHub Mobile — crear repositorios desde la aplicación

11 de mayo — GitHub Mobile permite ahora crear repositorios directamente desde iOS y Android. En iOS, el botón + está accesible desde la pantalla de inicio o el perfil. En Android, desde la pantalla de inicio o la sección Repositories del perfil. El usuario puede definir el nombre, la visibilidad (público/privado), una descripción, elegir una plantilla e inicializar con un README, un .gitignore o una licencia.

🔗 GitHub Changelog — Crear repositorios en móvil

Manus Website Builder — función “Hacer una copia”

11 de mayo — Manus Website Builder introduce la duplicación de proyectos WebDev en una sesión independiente. Lo que se transfiere al hacer una copia: el código fuente completo, el esquema de la base de datos, los secretos y valores, y un resumen del historial de conversación. Lo que no se transfiere: los datos de la base de datos, los ajustes de dominio personalizado, la conexión a GitHub y el historial completo del chat.

El proyecto copiado empieza en estado no publicado. Casos de uso típicos: rediseño sin riesgo, reutilización como plantilla, pruebas de recorridos de pago separados, variantes por mercado.

🔗 Blog de Manus — Make a copy WebDev

Codex + OpenAI Developers MCP Server

11 de mayo — Codex integra el OpenAI Developers MCP Server, lo que permite acelerar la construcción de aplicaciones de IA y agentes directamente a través de las APIs de OpenAI. Un vídeo demo acompaña el anuncio, mostrando el flujo de trabajo de desarrollo acelerado.

🔗 Tweet de @OpenAIDevs


NVIDIA OpenShell v0.0.37 — framework de compute open source

11 de mayo — NVIDIA publica OpenShell v0.0.37, un framework open source de compute distribuido. Esta versión aporta drivers de compute enchufables para Docker, Podman, Kubernetes y MicroVM — permitiendo ejecutar workloads de IA en diferentes entornos de ejecución (runtime) sin modificar el código de la aplicación.

Otras novedades: autenticación gateway OIDC + RBAC, chart Helm con namespaces de usuario Kubernetes, paquetes Debian/RPM/Homebrew para una instalación simplificada. Breaking change: el gateway debe recrearse antes de actualizar a v0.0.37.

🔗 Tweet de @NVIDIAAI


Grok 20+ nuevos conectores

11 de mayo — Grok amplía sus capacidades de integración con 20+ nuevos conectores: documentos, calendario, email, código y otras fuentes de datos. Esta ampliación sigue a los conectores iniciales (emails, slides, calendar, Notion) anunciados el 8 de mayo. El objetivo declarado es automatizar aún más tareas directamente desde la interfaz de Grok, sin pasar por herramientas de terceros.

🔗 Tweet de @grok


Claude’s Constitution — versión audiolibro

11 de mayo — La Constitución de Claude, el documento que define los valores y comportamientos del modelo, ya está disponible en formato audiolibro (audiobook). La grabación es leída por dos de sus autores principales: Amanda Askell y Joe Carlsmith, ambos investigadores de Anthropic.

El audiolibro incluye la lectura íntegra del documento, una entrevista (Q&A) sobre el proceso de redacción, las filosofías que guiaron el documento y una reflexión sobre la posible evolución de la Constitución a medida que los modelos avanzan en capacidad. La Constitución sigue disponible en texto en anthropic.com/constitution, bajo licencia Creative Commons CC0 1.0.

🔗 Tweet de @AnthropicAI


Breves

  • Gemini — digitalizar sus notas en papel — Google publica un tutorial sobre la digitalización de notas manuscritas mediante Gemini para generar automáticamente guías de estudio o fichas de repaso. Fotografiar sus páginas, subirlas a Gemini y pedir una guía estructurada. 🔗 Blog de Google

  • ElevenLabs × Mahindra — Mahindra (100+ países) ha desplegado agentes de voz impulsados por ElevenLabs para escalar su programa de prospección durante el lanzamiento de un nuevo SUV. 🔗 Tweet de @ElevenLabs

  • OpenAI Campus Network — OpenAI abre un formulario de interés para clubes estudiantiles universitarios en el marco de su Campus Network, con el objetivo de ampliar su presencia académica. 🔗 openai.com


Lo que esto significa

Dos estrategias enterprise opuestas. OpenAI DeployCo y Claude Platform on AWS representan dos visiones del despliegue de IA en la empresa. OpenAI envía equipos humanos directamente a los clientes para rediseñar flujos de trabajo críticos — un modelo de consultoría aumentado por IA, intensivo en capital y relacional. Anthropic apuesta por la infraestructura cloud dando a los desarrolladores de AWS acceso nativo al conjunto completo de la API de Claude desde su entorno existente. Uno acelera el time-to-value mediante equipos de campo, el otro mediante la integración en herramientas ya existentes. Estos dos enfoques pueden coexistir en el mismo cliente enterprise.

Los agentes de voz en tiempo real pasan a producción. Grok Voice Think Fast 1.0 y GPT-Realtime-2 (lanzado el 7 de mayo) señalan que los grandes actores cruzan la línea del piloto al despliegue en producción en atención al cliente por voz. ElevenLabs en Mahindra ilustra ese paso de forma concreta: agentes de voz de IA desplegados en un lanzamiento automovilístico real en 100+ países. La próxima batalla se jugará en la latencia percibida, la capacidad de escalar hacia un humano y la gestión de casos límite.

La dotación de herramientas para agentes se estandariza en torno a MCP. La semana ve tanto a Anthropic anunciar el MCP connector nativo en Claude Platform on AWS, como a OpenAI integrar un MCP Server en Codex para acelerar el desarrollo de aplicaciones. GitHub Copilot cloud agent centraliza los secretos a nivel de organización para facilitar la configuración de agentes a gran escala. MCP se impone progresivamente como la capa de interoperabilidad de los agentes — una tendencia que estas tres anunciaciones simultáneas confirman.

La IA personal se apoya en los datos existentes. Gemini Personal Intelligence no inventa un nuevo modelo: conecta lo existente (Gmail, Photos, Search, YouTube) para personalizar las sugerencias de viaje. Es una dirección estratégica clara — la IA más útil no es la que más sabe en general, sino la que conoce específicamente al usuario. Google I/O 2026 (19 de mayo) debería amplificar esta tendencia.


Fuentes