Esta semana marca una aceleración en tres frentes simultáneos: los modelos abiertos (Mistral Medium 3.5, NVIDIA Nemotron 3 Nano Omni), la infraestructura de hardware (Google TPU de 8.ª generación) y los ecosistemas de agentes (Vibe Remote Agents, Claude for Creative Work, GitHub Copilot). Además, ElevenLabs da un paso importante al transformar su motor musical de IA en una plataforma para el gran público con monetización.
Mistral Medium 3.5, Vibe Remote Agents y Le Chat Work Mode
29 de abril — Mistral AI publica simultáneamente tres anuncios importantes: el modelo Mistral Medium 3.5, los agentes remotos (remote agents) Vibe y el modo Trabajo (Work Mode) en Le Chat.
Mistral Medium 3.5 en vista previa pública
Medium 3.5 es un modelo denso de 128 mil millones de parámetros que unifica seguimiento de instrucciones, razonamiento y código en un solo conjunto de pesos, con una ventana de contexto de 256 000 tokens. Puede ejecutarse en local con solo cuatro GPU.
| Característica | Valor |
|---|---|
| Arquitectura | Denso 128B |
| Contexto | 256 000 tokens |
| SWE-Bench Verified | 77,6 % |
| τ³-Telecom | 91,4 |
| Licencia | MIT modificada (open weights) |
| API — tokens de entrada | $1,50 / millón |
| API — tokens de salida | $7,50 / millón |
| Self-hosting (GPU mín.) | 4 GPU |
El modelo supera a Devstral 2 y Qwen3.5-397B-A17B en SWE-Bench Verified, lo que lo posiciona como referencia entre los modelos de código open weights en el momento del lanzamiento. Está disponible a través de la API de Mistral, Le Chat, Vibe, los terminales de NVIDIA (build.nvidia.com) y el microservicio NVIDIA NIM.
Agentes remotos (remote agents) en Vibe
Las sesiones de código de Vibe ahora pueden ejecutarse en la nube, sin permanecer abiertas en local. Varias sesiones se ejecutan en paralelo mientras el desarrollador hace otra cosa. Una sesión local puede “teletransportarse” a la nube con su historial y su estado completo. Al final de la tarea, el agente abre automáticamente una solicitud de extracción (pull request) en GitHub y notifica al desarrollador.
Vibe se integra de forma nativa con GitHub (código + PR), Linear y Jira (tickets), Sentry (incidentes), Slack y Teams (notificaciones). Cada sesión se ejecuta en una sesión aislada.
Modo Trabajo (Work Mode) en Le Chat (vista previa)
Un nuevo modo agéntico para tareas complejas en Le Chat: investigación multi fuente, síntesis documental, clasificación del buzón de correo, creación de tickets de Jira, envío de resúmenes a Slack. Los conectores están activados por defecto en el modo Trabajo. Cada acción visible requiere una aprobación explícita para las operaciones sensibles.
Google TPU de 8.ª generación — TPU 8t y TPU 8i
29 de abril — Google presenta su octava generación de chips TPU (Tensor Processing Unit), anunciada durante Google Cloud Next ‘26 la semana anterior. Dos chips distintos componen esta generación, cada uno optimizado para una fase diferente del ciclo de la IA.
A decade in the making, the chips for the agentic era have arrived. At @GoogleCloud’s Next ‘26 event last week, we unveiled our eighth-generation TPUs. TPU 8t: 3x more powerful than previous gen, 10x faster data movement, 97% productive resource utilization, training time from months to weeks. TPU 8i: tripled internal memory, 80% better perf/dollar, 5x latency reduction.
🇪🇸 Tras una década de preparación, han llegado los chips para la era agéntica. En el evento Next ‘26 de @GoogleCloud la semana pasada, presentamos nuestros TPU de octava generación. TPU 8t: 3 veces más potente que la generación anterior, 10 veces más rápido en el movimiento de datos, 97 % de utilización productiva de recursos, tiempo de entrenamiento reducido de meses a semanas. TPU 8i: memoria interna triplicada, 80 % mejor rendimiento por dólar, reducción de la latencia de 5 veces. — @GoogleAI en X
TPU 8t — entrenamiento de modelos
| Mejora | Detalle |
|---|---|
| Potencia bruta | 3× superior a la generación anterior |
| Flujo de datos | 10× más rápido (almacenamiento → chips) |
| Utilización productiva | 97 % de los recursos (detección y redirección automática de fallos) |
| Impacto | Tiempo de entrenamiento reducido de varios meses a pocas semanas |
TPU 8i — inferencia para agentes de IA
| Mejora | Detalle |
|---|---|
| Memoria interna | Triplicada para gestionar razonamientos complejos en varias etapas |
| Eficiencia de coste | +80 % de rendimiento por dólar gastado |
| Latencia | Reducida 5× gracias a un nuevo motor integrado |
Estos chips están diseñados para la era agéntica: el TPU 8t acelera la creación de modelos, el TPU 8i permite que esos modelos actúen (reservar un vuelo, gestionar una agenda) en tiempo casi real. Google posiciona esta arquitectura dual como la base tecnológica de la próxima década.
Claude for Creative Work — Blender, Autodesk Fusion, Adobe y otros 5 conectores MCP
28 de abril — Anthropic lanza una serie de conectores MCP (Model Context Protocol) oficiales destinados a los profesionales de las industrias creativas, en colaboración con Blender, Autodesk, Adobe, Ableton y Splice.
| Herramienta | Uso |
|---|---|
| Blender | Depuración de escenas 3D, creación de herramientas, modificaciones por lotes en todos los objetos |
| Autodesk Fusion | Creación y modificación de modelos 3D mediante lenguaje natural |
| Adobe Creative Cloud | Materialización de imágenes, vídeos y diseños mediante 50+ herramientas CC |
| Ableton Live y Push | Exploración de la documentación oficial del producto |
| Splice | Búsqueda de samples libres de derechos directamente desde Claude |
| Canva Affinity | Automatización de tareas repetitivas de producción |
| SketchUp | Punto de partida para el modelado 3D mediante descripción textual |
| Resolume / Touchdesigner | Control en tiempo real mediante lenguaje natural para VJs y artistas visuales |
“Claude now connects to the tools creative professionals already use. With the new Blender connector, you can debug a scene, build new tools, or batch-apply changes across every object, directly from Claude.”
🇪🇸 Claude ahora se conecta a las herramientas que los profesionales creativos ya utilizan. Con el nuevo conector de Blender, puedes depurar una escena, crear nuevas herramientas o aplicar modificaciones por lotes a todos los objetos, directamente desde Claude. — @claudeai en X
Anthropic también se ha unido al Blender Development Fund como donante patrono, apoyando el desarrollo del software libre. El tweet principal generó más de 10 millones de visualizaciones en menos de 24 horas (el tweet de Autodesk Fusion alcanzó los 11 millones), lo que la convierte en una de las publicaciones más virales de Anthropic en varios meses.
Los casos de uso destacados: aprendizaje de software complejo, ampliación de herramientas mediante código (scripts, plugins, sistemas generativos vía Claude Code), puente entre herramientas en un pipeline, automatización de tareas repetitivas (procesamiento por lotes, scaffolding).
NVIDIA Nemotron 3 Nano Omni — modelo omnimodal open source 30B
28 de abril — NVIDIA lanza Nemotron 3 Nano Omni, un modelo omnimodal open source que unifica visión, audio y lenguaje en una sola arquitectura.
| Parámetro | Valor |
|---|---|
| Arquitectura | Híbrido MoE 30B-A3B (30B total, 3B activos) |
| Contexto | 256K tokens |
| Modalidades (entrada) | Texto, imágenes, audio, vídeo, documentos, gráficos, interfaces |
| Modalidades (salida) | Texto |
| Eficiencia | 9× más rendimiento que otros modelos omnimodales open |
| Disponibilidad | Hugging Face, OpenRouter, build.nvidia.com, 25+ plataformas asociadas |
El modelo destaca en tres casos de uso: computer use (navegación de interfaces gráficas en resolución nativa 1920×1080), inteligencia documental (interpretación de PDF, tablas, gráficos, capturas de pantalla) y mantenimiento del contexto audio-vídeo en un único flujo de razonamiento.
Organizaciones como Aible, H Company, Palantir, Foxconn y Oracle evalúan el modelo desde su lanzamiento. H Company lo integra en su agente de computer use.
“To build useful agents, you can’t wait seconds for a model to interpret a screen. By building on Nemotron 3 Nano Omni, our agents can rapidly interpret full HD screen recordings — something that wasn’t practical before.”
🇪🇸 Para construir agentes útiles, no se puede esperar varios segundos a que un modelo interprete una pantalla. Al apoyarse en Nemotron 3 Nano Omni, nuestros agentes interpretan rápidamente grabaciones de pantalla en full HD, algo que antes no era práctico. — Gautier Cloix, CEO de H Company
La familia Nemotron alcanza además 50 millones de descargas acumuladas en el conjunto de las variantes Nano/Super/Ultra en un año.
ElevenMusic — plataforma musical de IA (descubrimiento, remix, creación, monetización)
29 de abril — ElevenLabs lanza ElevenMusic, una plataforma musical de IA que conecta escucha, remix y creación original en un solo sistema, con monetización directa para los artistas.
| Funcionalidad | Descripción |
|---|---|
| Descubrimiento | 4 000+ artistas independientes, catálogo curado |
| Remix | Cambiar el género, el tempo, reinterpretar una pista |
| Creación | A partir de letra, melodía o ambiente |
| Publicación | Difusión + monetización mediante la participación de los fans |
El modelo económico se inspira en la Voice Library de ElevenLabs, que ya ha pagado $11 millones a sus creadores. Los artistas publican y ganan según la participación de los oyentes, sin sello discográfico intermediario.
ElevenMusic se lanza con Eleven Album Vol. 2, una recopilación que incluye a Danger Twins y Justin Love, concebida para ser experimentada y remixada dentro de la plataforma. Kevin Jonas Sr. (Jonas Group Entertainment) y Amy Stroup (Danger Twins) forman parte de los socios artísticos en el lanzamiento.
“Fans want to feel like they’re part of the music, the songwriters, and the artists. ElevenMusic gives them a way in, turning a song into something people can step into, not just listen to.”
🇪🇸 Los fans quieren sentirse parte de la música, de los compositores y de los artistas. ElevenMusic les da una forma de entrar, convirtiendo una canción en algo en lo que la gente puede adentrarse, no solo escuchar. — Kevin Jonas Sr., Fundador y Presidente de Jonas Group Entertainment
La plataforma está disponible en aplicación móvil y web desde el 29 de abril de 2026.
🔗 Anuncio de @ElevenLabs en X — 🔗 Blog de ElevenLabs
GitHub Copilot code review — doble facturación a partir del 1 de junio de 2026
27 de abril — GitHub anuncia que a partir del 1 de junio de 2026, cada revisión de código automatizada por GitHub Copilot consumirá minutos de GitHub Actions además de los créditos de IA ya previstos por el nuevo modelo de pago por uso.
Hasta ahora, las revisiones de código de Copilot consumían únicamente unidades de solicitudes premium (premium request units, PRU). A partir del 1 de junio, se activarán simultáneamente dos contadores para los repositorios privados:
| Contador | Detalle |
|---|---|
| IA Credits | Todo uso de Copilot (incluido code review) facturado en créditos de IA, conforme al modelo de pago por uso |
| Minutes GitHub Actions | Consumidos desde la asignación del plan para cada revisión en repositorio privado; minutos adicionales facturados a las tarifas estándar de Actions |
Este doble cómputo se explica por la arquitectura agéntica de GitHub Copilot code review: la herramienta se apoya en runners alojados por GitHub para analizar el contexto ampliado del repositorio y producir comentarios más relevantes.
Planes afectados: Copilot Pro, Pro+, Business, Enterprise — incluidas las revisiones iniciadas por usuarios sin licencia mediante facturación directa a la organización.
Repositorios públicos: ningún cambio, los minutos de Actions siguen siendo gratuitos.
Para prepararse antes del 1 de junio:
- Verificar el consumo actual de Actions en la configuración de facturación
- Ajustar los límites de gasto (spending limits) de Actions si es necesario
- Informar a los responsables de facturación de la organización
OpenAI DevDay 2026 — San Francisco, 29 de septiembre
29 de abril — OpenAI anuncia el regreso de su evento anual para desarrolladores: OpenAI DevDay 2026 se celebrará el 29 de septiembre en San Francisco. Las inscripciones oficiales aún no se han abierto.
Para fomentar la anticipación, OpenAI lanza un concurso: los desarrolladores que construyan algo con GPT-5.5 y generación de imágenes pueden intentar ganar una invitación anticipada. El procedimiento: enviar un enlace al proyecto acompañado de una nota que explique cómo fue construido, con el hashtag oficial #OpenAIDevDay2026.
| Detalle | Valor |
|---|---|
| Fecha | 29 de septiembre de 2026 |
| Lugar | San Francisco |
| Hashtag oficial | #OpenAIDevDay2026 |
| Vistas del tweet (primeras horas) | 239 000+ |
El anuncio se publica con cinco meses de antelación, lo que es inusualmente temprano para un DevDay. Las ediciones anteriores habían servido de marco para algunos de los lanzamientos de producto más estructurantes de OpenAI para la comunidad de desarrolladores: en 2023, GPT-4 Turbo y las Assistants API fueron presentados allí. Con la aceleración actual del ritmo de lanzamientos — GPT-5.5, generación de imágenes, Codex CLI — DevDay 2026 se perfila como una etapa importante del calendario para los equipos técnicos que integran los modelos de OpenAI en producción.
Un hilo separado invita a los desarrolladores a compartir sus creaciones desde ahora. La cuenta @OpenAIDevs difundió el anuncio en los minutos posteriores a la publicación principal.
Ecosistema de agentes y nuevas integraciones
Claude Code CLI v2.1.120–2.1.123 — 50+ correcciones
28 de abril — El equipo de Claude Code detalla las correcciones aportadas en las cuatro últimas versiones del CLI (v2.1.120 a v2.1.123): más de 50 mejoras de estabilidad y rendimiento.
| Métrica | Valor |
|---|---|
| Versiones afectadas | v2.1.120, v2.1.121, v2.1.122, v2.1.123 |
| Número de correcciones | 50+ |
Mejora de rendimiento /resume | Hasta un 67 % más rápido |
| Vistas del hilo @ClaudeDevs | 493 k |
Los cinco ejes: sesiones largas aceleradas (/resume hasta un 67 % más rápido), autenticación de macOS estabilizada (una docena de correcciones del keychain), memoria reducida en Linux, WebFetch sin bloqueos en páginas voluminosas, copiar y pegar preservando los saltos de línea desde Windows y Xcode.
OpenAI × AWS — Codex y Managed Agents en Amazon Bedrock
28 de abril — OpenAI y AWS amplían su alianza estratégica en tres ejes: acceso a los modelos de OpenAI en entornos AWS, Codex en Bedrock (vista previa limitada, para organizaciones que deseen mantener sus datos en la infraestructura de Amazon) y Bedrock Managed Agents impulsados por OpenAI (disponible de inmediato). Codex cuenta con más de 4 millones de usuarios semanales.
Copilot cloud agent se inicia un 20 % más rápido
27 de abril — GitHub Copilot cloud agent ahora se inicia más de un 20 % más rápido gracias a entornos de runner preconfigurados mediante imágenes custom de GitHub Actions. Esta mejora se suma a la reducción del 50 % ya entregada en marzo de 2026.
Gemini — generación de archivos descargables
29 de abril — Gemini ahora puede crear archivos descargables directamente desde el chat: PDF, Word (.docx), Excel (.xlsx), Google Docs/Sheets/Slides, CSV, LaTeX, RTF y Markdown. Disponible de inmediato para todos los usuarios web y móvil.
Mistral Workflows en vista previa pública
27 de abril — Mistral AI lanza Workflows en vista previa pública, una capa de orquestación empresarial construida sobre el motor de ejecución duradera (durable execution engine) de Temporal (la misma infraestructura que Netflix, Stripe, Salesforce). Los flujos se redactan en Python mediante el SDK Mistral v3.0, y luego se activan desde Le Chat por los equipos de negocio. Las organizaciones ASML, France Travail y La Banque Postale ya lo utilizan.
Qwen FlashQLA — kernels de atención lineal
29 de abril — Qwen publica FlashQLA, una biblioteca de kernels de atención lineal de alto rendimiento construida sobre TileLang, diseñada para la IA agéntica en dispositivos personales: ganancias de 2–3× en paso hacia adelante (forward) y 2× en paso hacia atrás (backward). Publicado en open source en GitHub.
GPT Image 2 integrado en Manus Slides
29 de abril — Manus integra GPT Image 2 en Manus Slides: edición point-and-click de los visuales, reemplazo por prompt, generación de notas de presentación, exportación a Google Slides, PowerPoint, PDF, Google Drive y OneDrive.
Salesforce conectado a Genspark
29 de abril — Genspark integra Salesforce en su ecosistema de agentes: conexión mediante Genspark Claw (instalación CLI por instrucción) o Super Agent (conexión directa). Casos de uso: procesamiento automático de solicitudes de clientes, paneles trimestrales, gestión automatizada del pipeline comercial.
GPT-5.5 y ChatGPT Images 2.0 en Genspark
28 de abril — Genspark integra GPT-5.5 en su chat de IA y ChatGPT Images 2.0 (GPT Image 2) en su generador de imágenes, accesibles respectivamente en genspark.ai/agents y genspark.ai/ai_image.
Pika Agents — interfaz conversacional creativa
28 de abril — Pika lanza Pika Agents: una interfaz de creación de video que reemplaza la caja de prompt por un agente de IA personalizado (voz, rostro, personalidad configurados por el usuario). El agente comprende las intenciones creativas en lenguaje natural y ensambla, refina y produce en una sola conversación.
Codex seats a $0 para ChatGPT Business hasta finales de junio
29 de abril — OpenAI permite a los suscriptores elegibles de ChatGPT Business añadir asientos de Codex sin costo por asiento hasta finales de junio de 2026, acompañando la expansión de Codex en AWS.
Problema de Erdős de hace 60 años resuelto con GPT-5.5
28 de abril — OpenAI publica un episodio de podcast en el que Sébastien Bubeck y Ernest Ryu repasan la resolución de un problema matemático abierto desde hace 60 años, atribuido a Paul Erdős, con la ayuda de GPT-5.5. El tweet supera las 399 000 vistas.
Breves
-
DeepSeek-V4-Pro: promo -75 % prolongada — La reducción del 75 % en la API de DeepSeek-V4-Pro se amplía hasta el 31 de mayo de 2026. Tarifas promocionales: $0,003625/M tokens de entrada (cache hit), $0,435 (cache miss), $0,87 de salida. 🔗 Tweet de DeepSeek
-
Google DeepMind — Experience AI en América Latina — El programa educativo Experience AI (Raspberry Pi Foundation) se expande en América Latina con el objetivo de formar a 24 000 docentes y alcanzar a 1,25 millones de estudiantes de aquí a 2028, financiado con $4,6 millones por Google.org. 🔗 Tweet de Google DeepMind
-
GPT-5.3-Codex retirado del selector de Copilot Student — A partir del 27 de abril de 2026, GPT-5.3-Codex ya no se puede seleccionar manualmente en el plan Copilot Student; sigue siendo accesible mediante la selección automática. 🔗 Changelog de GitHub
-
Responses API — dominios bloqueados para la búsqueda web — La Responses API de OpenAI ahora permite bloquear dominios específicos manteniendo la búsqueda web activada, para excluir fuentes concretas de los resultados. 🔗 Tweet de @charlierguo
-
OpenAI — compromiso con la seguridad comunitaria — OpenAI publica un artículo que detalla sus prácticas de seguridad en ChatGPT: mitigación de riesgos en el modelo, supervisión automatizada, conexión con recursos de ayuda y reporte a las autoridades en los casos graves. Publicación de transparencia sin nueva funcionalidad. 🔗 Anuncio de OpenAI
Lo que significa
La carrera por los modelos abiertos se intensifica. Mistral Medium 3.5 (128B, SWE-Bench 77,6 %) y NVIDIA Nemotron 3 Nano Omni (30B, 9× más eficiente que otros omnimodales open) llegan simultáneamente con licencias permisivas. Ambos modelos se posicionan como alternativas creíbles a las fronteras cerradas: Mistral en código y razonamiento, Nemotron en multimodalidad agéntica. Esta presión mantiene una brecha cada vez más estrecha entre modelos propietarios y open weights.
La infraestructura de hardware sigue siendo el cuello de botella estratégico. Los TPU de 8.ª generación de Google (3× en entrenamiento, 5× menos latencia en inferencia) ilustran que la carrera de la IA también se juega a nivel del silicio. El anuncio de Google Cloud Next ‘26 posiciona la infraestructura de Google como una ventaja competitiva duradera frente a los GPU de NVIDIA — aunque ambos coexisten en despliegues reales.
El ecosistema agéntico se fragmenta en especializaciones verticales. Esta semana, los agentes de IA se instalan en las herramientas creativas (Claude for Creative Work con 8+ conectores MCP), el desarrollo de software (Vibe Remote Agents, Copilot cloud agent un 20 % más rápido), la música (ElevenMusic), el video (Pika Agents), los CRM (Salesforce en Genspark) y los workflows empresariales (Mistral Workflows). La pregunta ya no es «¿la IA puede hacer esto?» sino «¿en qué herramienta especializada y según qué modelo de facturación?».
La facturación por uso transforma los modelos económicos de los desarrolladores. El paso de GitHub Copilot code review a un doble cómputo (créditos de IA + minutos de Actions) a partir del 1 de junio, combinado con la oferta de Codex seats a $0 para ChatGPT Business, ilustra una dinámica: los editores subvencionan la adopción (gratuidad temporal, promo -75 % de DeepSeek) para crear hábitos antes de normalizar la facturación por uso. Los equipos técnicos tienen interés en auditar sus partidas de gasto en IA antes de junio.
Fuentes
- Mistral Medium 3.5 + Vibe Remote Agents
- Anuncio de @mistralvibe en X
- Mistral Workflows
- Google TPU de 8.ª generación — @GoogleAI en X
- Claude for Creative Work — Anthropic
- NVIDIA Nemotron 3 Nano Omni — Blog de NVIDIA
- ElevenMusic — Blog de ElevenLabs
- GitHub Copilot code review → Actions minutes
- Copilot cloud agent un 20 % más rápido
- OpenAI DevDay 2026 — @OpenAI en X
- OpenAI × AWS
- Codex seats $0 — @OpenAIDevs en X
- Problema de Erdős — @OpenAI en X
- Generación de archivos en Gemini — Blog de Google
- Qwen FlashQLA — GitHub
- GPT Image 2 en Manus Slides
- Salesforce en Genspark
- GPT-5.5 y ChatGPT Images 2.0 en Genspark
- Pika Agents
- Claude Code CLI v2.1.123 — @ClaudeDevs en X
- Promo extendida de DeepSeek-V4-Pro
- Google DeepMind Experience AI América Latina
- GPT-5.3-Codex retirado de Copilot Student
- Responses API dominios bloqueados
- OpenAI compromiso con la seguridad comunitaria
Este documento ha sido traducido de la versión fr al idioma es utilizando el modelo gpt-5.4. Para más información sobre el proceso de traducción, consulte https://gitlab.com/jls42/ai-powered-markdown-translator