Tres anuncios dominan el final del mes: OpenAI cierra la mayor ronda de financiación privada en la historia de la tecnología con 122 mil millones de dólares a una valoración de 852 mil millones, Qwen alcanza un hito con un modelo omnimodal nativo capaz de ver, oír y programar simultáneamente, y el responsable de Claude Code publica un hilo viral revelando 15 funciones poco documentadas de la herramienta. La semana también se destaca por el lanzamiento del Secure Intelligence Institute de Perplexity, nuevas herramientas de GitHub Copilot y por iniciativas de infraestructura en Runway y NVIDIA.
OpenAI levanta 122 mil millones de dólares
31 de marzo — OpenAI anuncia el cierre de su última ronda de financiación con 122 mil millones de dólares comprometidos, para una valoración post-money de 852 mil millones de dólares. Es una de las mayores rondas privadas en la historia de la tecnología.
La ronda está co-liderada por SoftBank y a16z, con participación estratégica de Amazon, NVIDIA y Microsoft. Por primera vez, OpenAI amplió la participación a inversores individuales a través de bancos, recaudando más de 3 mil millones de dólares de particulares. ARK Invest también incorporará OpenAI en varios fondos indicizados cotizados (Exchange-Traded Funds / ETF).
En apoyo a esta ronda, OpenAI publica métricas de crecimiento:
| Indicador | Valor |
|---|---|
| Usuarios activos semanales ChatGPT | 900 millones |
| Suscriptores de pago ChatGPT | 50 millones |
| Ingresos mensuales | 2 mil millones de dólares |
| Tokens procesados por la API (por minuto) | 15 mil millones |
| Usuarios semanales de Codex | 2 millones (+5× en 3 meses) |
| Crecimiento mensual de Codex | +70% |
La compañía describe una hoja de ruta articulada alrededor de una “súperapp de IA” (AI superapp): una interfaz unificada que agrupe ChatGPT, Codex, la búsqueda web y agentes IA. El objetivo declarado es superar mil millones de usuarios activos semanales. Las empresas ya representan el 40% de los ingresos.
GPT-5.4, el modelo más reciente de OpenAI, se describe como aportando mejoras en razonamiento, codificación y en los flujos de trabajo agenticos (agentic workflows). El crecimiento de OpenAI se presenta como 4 veces más rápido que el de Google y Meta en su etapa equivalente.
Qwen3.5-Omni: modelo omnimodal nativo
29 de marzo — Alibaba Qwen lanza Qwen3.5-Omni, un modelo diseñado nativamente para procesar texto, imágenes, audio y vídeo en un solo modelo unificado. A diferencia de los enfoques multimodales clásicos que añaden modalidades en capas, este modelo procesa esas entradas simultáneamente.
Las capacidades brutas son importantes: hasta 10 horas de audio o 400 segundos de vídeo 720p de forma nativa, entrenado con más de 100 millones de horas de datos, reconocimiento de voz en 113 idiomas y expresión en 36 idiomas.
Funcionalidad destacada: Audio-Visual Vibe Coding
La funcionalidad más directamente utilizable es el “Audio-Visual Vibe Coding”: el usuario describe su proyecto en voz alta frente a una cámara, y Qwen3.5-Omni-Plus genera un sitio web o un juego funcional. Es una aplicación del concepto de codificación por intención (vibe coding) extendido al audio y al vídeo en tiempo real.
Rendimiento comparado
| Categoría | Qwen3.5-Omni-Plus | Gemini 3.1 Pro |
|---|---|---|
| DailyOmni (audio/vision) | 84,6 | 82,7 |
| WorldScene | 62,8 | 65,5 |
| QualocommInteractive | 68,5 | 52,3 |
| OmniClear | 64,8 | 55,5 |
| IFEval (texto) | 89,7 | 93,5 |
| MMLU-Redux | 94,2 | 90,0 |
El modelo supera a Gemini 3.1 Pro en los benchmarks de audio y es equivalente en comprensión audiovisual.
Capacidades vocales
- Control vocal fino: ajuste de la emoción, el ritmo y el volumen en tiempo real
- Clonación de voz (Voice Cloning) a partir de una muestra breve (despliegue de ingeniería anunciado próximamente)
- Turno de palabra inteligente (Semantic Interruption) que entiende la intención real e ignora el ruido ambiental
- Búsqueda web integrada y llamadas a funciones complejas
Familia de modelos
| Variante | Posicionamiento |
|---|---|
| Qwen3.5-Omni-Plus | Rendimiento SOTA, subtitulado audio-visual detallado |
| Qwen3.5-Omni-Plus-Realtime | Control de voz, WebSearch, Voice Clone, Semantic Interruption |
| Qwen3.5-Omni-Flash | Velocidad |
| Qwen3.5-Omni-Light | Ligereza |
Acceso vía chat.qwen.ai (botón VoiceChat/VideoChat) y la API de Alibaba Cloud.
Nota complementaria: Qwen 3.6 Plus Preview está disponible gratis en OpenRouter por tiempo limitado — las interacciones se recopilan durante este periodo para mejorar el modelo.
15 funciones ocultas de Claude Code
30 de marzo — Boris Cherny, responsable de Claude Code en Anthropic, publicó un hilo revelando 15 funciones poco documentadas de la herramienta. El hilo alcanzó 3,6 millones de visualizaciones, 2 000 reposts y 22 000 likes.
“I wanted to share a bunch of my favorite hidden and under-utilized features in Claude Code. I’ll focus on the ones I use the most. Here goes.”
🇪🇸 Quería compartir algunas de mis funciones favoritas, poco conocidas y poco utilizadas en Claude Code. Me voy a centrar en las que más utilizo. Vamos allá. — @bcherny en X
Movilidad y sesiones remotas
- La aplicación Claude en iOS y Android incluye una pestaña Code que permite programar desde el teléfono
--teleport(o/teleport) permite cambiar una sesión en la nube a una máquina local;/remote-controlpermite controlar una sesión local desde cualquier dispositivo- Cowork Dispatch: control remoto seguro de Claude Desktop App desde el móvil, con acceso a los servidores MCP (Model Context Protocol), al navegador, etc.
Automatización
/loopy/schedulepermiten lanzar Claude automáticamente a intervalos definidos, hasta una semana — Cherny usa/loop 5m /babysitpara revisiones de código y rebase automáticos en continuo- Los hooks (
SessionStart,PreToolUse, etc.) permiten inyectar lógica determinista en el ciclo del agente, por ejemplo para enrutar solicitudes de permiso hacia WhatsApp
Paralelización
/batchdistribuye el trabajo hacia decenas, cientos o incluso miles de agentes en paralelo — útil para migraciones de código a gran escalaclaude -winicia sesiones paralelas en espacios de trabajo git (git worktrees) distintos
Productividad diaria
/btwpermite hacer una pregunta rápida mientras un agente trabaja, sin interrumpir la tarea en curso/branchpermite bifurcar (fork) una sesión; o vía CLI:claude --resume <session-id> --fork-session--agentpermite definir agentes personalizados en.claude/agents/con un sistema de prompt y herramientas configurables--add-dir//add-dirda a Claude acceso a varias carpetas o repositorios simultáneamente--bareacelera el arranque del SDK hasta 10× (evita la carga de CLAUDE.md, parámetros y servidores MCP)/voiceactiva la entrada por voz (barra espaciadora en CLI, botón dedicado en Desktop, dictado iOS)- Extensión de Chrome (beta): Claude Code + Chrome para probar aplicaciones web, depurar los logs de la consola y automatizar el navegador
Claude Code: auto mode extendido a Enterprise y API
30 de marzo — El auto mode de Claude Code, lanzado el 24 de marzo para usuarios Pro y Max, ya está disponible en el plan Enterprise y para desarrolladores que acceden a la API. Esta funcionalidad permite a Claude tomar decisiones de aprobación de acciones (escritura de archivos, comandos bash) por sí mismo, en lugar de solicitar al usuario en cada paso.
Para activarlo en un entorno Enterprise o API:
claude --enable-auto-mode
El auto mode se apoya en clasificadores internos que evalúan el riesgo de cada acción antes de ejecutarla, ofreciendo un equilibrio entre el modo permisivo (--dangerously-skip-permissions) y las aprobaciones manuales.
30 de marzo — Cowork Dispatch ahora puede iniciar tareas de codificación con un modelo específico, mencionado directamente en lenguaje natural en la instrucción.
Perplexity lanza el Secure Intelligence Institute
31 de marzo — Perplexity lanza el Secure Intelligence Institute (SII), un laboratorio de investigación dedicado a la seguridad, la privacidad y la protección de sistemas de IA avanzados. El Instituto está dirigido por el Dr. Ninghui Li — Samuel D. Conte Professor en la Universidad Purdue, Fellow ACM y IEEE, ex presidente de ACM SIGSAC —, con alianzas académicas que incluyen el grupo de criptografía aplicada de Dan Boneh y el Gong Lab de Neil Gong.
El SII publica tres primeros trabajos:
| Publicación | Tipo | Descripción |
|---|---|---|
| BrowseSafe | Benchmark open-source | 14 700+ escenarios de ataque reales, 14 categorías de riesgo para la navegación IA |
| Aseguramiento de agentes NIST/CAISI | Política | Respuesta al RFI (Request for Information) sobre la securización de agentes autónomos |
| Building Security Into Comet | Arquitectura | Defensa en profundidad del navegador IA Comet |
El SII traduce sus investigaciones en mejoras concretas para los sistemas de Perplexity y comparte su trabajo con el ecosistema IA.
🔗 Instituto de Inteligencia Segura
Cohere y Ensemble: LLM especializado en gestión del ciclo de ingresos para salud
31 de marzo — Cohere y Ensemble anuncian la construcción del primer gran modelo de lenguaje (large language model / LLM) nativo en gestión del ciclo de ingresos (Revenue Cycle Management / RCM) de la industria sanitaria estadounidense.
Ensemble ofrece una solución de extremo a extremo para hospitales y grupos médicos, desde la programación de citas hasta la facturación final. A diferencia de las ofertas competidoras que encapsulan LLM generales en prompts especializados, este modelo está completamente personalizado sobre la familia Command de Cohere.
| Dominio | Capacidad |
|---|---|
| Financiero | Predicción de rechazos antes de la presentación, control de calidad de facturación continuo |
| Clínico | Guía de documentación en el punto de atención, ensamblado de expedientes de apelación |
| Agéntico | Orquestación multi-paso del ciclo de ingresos |
El modelo se entrenó con los datos de pre-entrenamiento de Cohere, los logs operativos de Ensemble, fuentes públicas de conocimiento RCM y anotaciones de expertos del sector. Un marco de evaluación (benchmark) específico del dominio, co-desarrollado, medirá el rendimiento frente a LLM generales en tareas RCM reales.
GitHub Copilot: desarrollo agent-first e integración con Slack
31 de marzo — Tyler McGoffin, investigador sénior del equipo Copilot Applied Science en GitHub, publica una experiencia sobre la construcción de una herramienta interna con Copilot como agente de codificación principal. La herramienta automatiza el análisis de trayectorias de agentes IA en benchmarks como TerminalBench2 y SWEBench-Pro.
Las prácticas descritas: uso del modo /plan antes de codificar, creación de “tests de contrato” (contract tests) que solo un humano puede modificar, prompts detallados en lugar de breves, y mantenimiento automático semanal vía /plan Review the code for any missing tests.... La conclusión: las cualidades de un buen ingeniero (planificación, contexto, comunicación) son idénticas para colaborar eficazmente con un agente IA.
30 de marzo — La app GitHub para Slack ahora integra Copilot para crear issues de GitHub directamente desde Slack en lenguaje natural. Basta con mencionar @GitHub en cualquier canal y describir el trabajo.
| Funcionalidad | Detalle |
|---|---|
| Creación en lenguaje natural | Descripción → issues estructurados (título, cuerpo, asignados, etiquetas, hitos) |
| Sub-issues | Descomponer el trabajo en issues padre/hijo desde un único mensaje |
| Modo conversación | Iterar sobre los issues antes de crearlos |
31 de marzo — GitHub presenta el Copilot SDK que permite integrar flujos de trabajo agenticos (agentic workflows) en aplicaciones de terceros según 3 modelos arquitecturales.
🔗 Blog GitHub - Desarrollo orientado a agentes 🔗 Changelog GitHub - Crear issues desde Slack
Runway: fondo de inversión y programa para startups
31 de marzo — Runway lanza dos iniciativas simultáneas.
El Runway Fund es un fondo de inversión para startups en fase inicial (early-stage) en IA, medios y simulación del mundo. Compromiso inicial hasta 10 millones de dólares, con inversiones de hasta 500 000 dólares en pre-seed/seed. Enfoque en tres ejes: investigación IA (modelos del mundo e IA generativa), nuevas aplicaciones (capa aplicativa sobre LLMs) y nuevos medios y contenidos. Ya se han realizado inversiones en Cartesia, LanceDB y Tamarind Bio.
Runway Builders es un programa de acompañamiento para startups desde la fase seed hasta la serie C que construyen productos con vídeo generativo e IA conversacional en tiempo real. Los participantes reciben créditos API gratuitos, los límites de tasa más altos y acceso a una comunidad privada.
🔗 Runway Fund 🔗 Runway Builders
NVIDIA y Emerald AI: fábricas de IA flexibles en la red eléctrica
31 de marzo — NVIDIA y Emerald AI presentan en CERAWeek un nuevo enfoque para las fábricas de IA (AI factories): tratarlas como activos flexibles de la red eléctrica en lugar de cargas estáticas. La arquitectura se basa en NVIDIA Vera Rubin DSX y la plataforma Conductor de Emerald AI.
Socios energéticos anunciados: AES, Constellation, Invenergy, NextEra Energy, Nscale Energy y Vistra. Anuncios asociados:
- Maximo: instalación solar robótica IA de 100 MW operativa en Bellefield con NVIDIA Isaac Sim
- TerraPower + SoftServe: gemelo digital (digital twin) NVIDIA Omniverse para reducir los plazos de diseño de centrales nucleares Natrium
- Adaptive Construction Solutions: programa nacional de formación en construcción de fábricas de IA
- GE Vernova, Schneider Electric, Vertiv: diseños de referencia (reference designs) validados para Vera Rubin
Jensen Huang describe la energía como la capa fundamental de un “pastel IA de cinco capas” (five-layer AI cake).
🔗 Blog de NVIDIA - AI Factories
En breve
Gemini Live en Gemini 3.1 Flash Live — 30 de marzo — Google confirmó el despliegue del modelo Gemini 3.1 Flash Live en la aplicación Gemini Live, disponible para todos los usuarios. Esta transición (anunciada el 26 de marzo) aporta conversaciones de audio más naturales y una mejor precisión en entornos ruidosos. 🔗 Tuit @GeminiApp
Manus : contrôle depuis téléphone pour Desktop — 30 mars — Manus añade la posibilidad de controlar la aplicación Desktop desde su smartphone: inicio de tareas, acceso a archivos y lanzamiento de flujos de trabajo sin tocar el ordenador. 🔗 Tuit @ManusAI
Midjourney V8 teaser — 29 mars — David Holz (fundador de Midjourney) anuncia una versión “radicalmente diferente” de V8, “llegando muy pronto”. No hay fecha anunciada. 🔗 Tuit @DavidSHolz
Claude Code v2.1.87 — Corrección de un bug en Cowork Dispatch donde los mensajes no se entregaban. 🔗 CHANGELOG de Claude Code en GitHub
Lo que significa
La valoración de OpenAI en 852 mil millones marca un punto de inflexión: a estas cifras, la brecha entre los actores de primer nivel y el resto del sector se ensancha estructuralmente. Con 900 millones de usuarios semanales y un objetivo de mil millones, ChatGPT se impone como una infraestructura de masas, no solo un producto tecnológico.
El lanzamiento de Qwen3.5-Omni ilustra la creciente competencia en modelos omnimodales. El Audio-Visual Vibe Coding representa una evolución concreta del codificado por intención (vibe coding) — pasar del texto a la voz y al vídeo como interfaz principal hacia la IA generativa.
En cuanto a las herramientas para desarrolladores, el hilo de Boris Cherny revela que Claude Code ha acumulado funcionalidades avanzadas (paralelización masiva con /batch, automatización vía hooks, sesiones distribuidas) que permanecían desconocidas por falta de documentación visible. La extensión a los planes Enterprise del auto mode sigue una trayectoria clásica: validación en preview, luego despliegue progresivo.
Finalmente, la creación del Secure Intelligence Institute por Perplexity y las iniciativas de Cohere en salud señalan una tendencia: los actores de segundo plano buscan diferenciarse en verticales especializados (seguridad IA, salud regulada) en lugar de competir frontalmente en los modelos generales.
Fuentes
- OpenAI - Acelerando la siguiente fase de la IA
- Tuit OpenAI - Ronda de financiación
- Tuit Alibaba Qwen - Qwen3.5-Omni
- Hilo Boris Cherny - 15 características de Claude Code
- Tuit @claudeai - Auto mode Enterprise
- Tuit @noahzweben - Modelo Dispatch
- CHANGELOG de Claude Code en GitHub
- Secure Intelligence Institute de Perplexity
- Tuit Perplexity - SII
- Blog Cohere - LLM RCM para salud
- Blog GitHub - Desarrollo impulsado por agentes
- Changelog GitHub - Crear issues desde Slack con Copilot
- Runway Fund
- Runway Builders
- Blog NVIDIA - Fábricas de IA
- Tuit @GeminiApp - Gemini Live 3.1 Flash
- Tuit @ManusAI - Control desde teléfono
- Tuit @DavidSHolz - Midjourney V8
- Tuit @OpenRouter - Vista previa de Qwen 3.6 Plus
Este documento ha sido traducido de la versión fr al idioma es utilizando el modelo gpt-5-mini. Para más información sobre el proceso de traducción, consulte https://gitlab.com/jls42/ai-powered-markdown-translator