El 27 de abril de 2026 marca una jornada intensa de anuncios estructurales: OpenAI y Microsoft revisan su acuerdo de colaboración para dar a OpenAI más flexibilidad multicloud manteniendo Azure como nube principal, GitHub revela el fin de las “premium request units” en favor de un nuevo sistema de créditos facturados por uso, y Google DeepMind formaliza una asociación científica importante con la República de Corea. Symphony, la especificación de código abierto de OpenAI para la orquestación de Codex, completa una jornada que redefine los contornos de la infraestructura de IA.
OpenAI × Microsoft — acuerdo enmendado hasta 2032
27 de abril — OpenAI y Microsoft anuncian un acuerdo enmendado que simplifica y reorganiza su asociación a largo plazo. Hasta ahora, la estructura contractual vinculaba estrechamente a OpenAI con Azure mediante una licencia exclusiva y un mecanismo de reparto de ingresos (revenue share) en ambos sentidos. El nuevo acuerdo cambia las reglas del juego.
| Aspecto | Antes | Después (acuerdo enmendado) |
|---|---|---|
| Nube principal | Azure exclusivo | Azure sigue siendo prioritario, pero OpenAI puede usar otras nubes |
| Licencia de Microsoft | Exclusiva | No exclusiva hasta 2032 |
| Revenue share Microsoft → OpenAI | Sí | Eliminado |
| Revenue share OpenAI → Microsoft | Sí | Mantenido hasta 2030, mismo porcentaje pero con tope |
| Accionariado de Microsoft | — | Sin cambios (accionista mayoritario) |
El cambio central es la libertad multicloud: OpenAI puede ahora firmar acuerdos con otros proveedores de infraestructura sin incumplir sus compromisos con Microsoft. Para Microsoft, la eliminación del revenue share entrante (MS → OAI) simplifica la contabilidad, mientras que la licencia no exclusiva le deja la posibilidad de desarrollar sus propios modelos competidores sin restricciones.
“The greater predictability in the amended agreement strengthens our joint ability to build and operate AI platforms at scale while providing both companies the flexibility to pursue new opportunities.”
🇪🇸 La mayor previsibilidad del acuerdo enmendado refuerza nuestra capacidad conjunta para construir y operar plataformas de IA a gran escala, al tiempo que brinda a ambas empresas la flexibilidad necesaria para aprovechar nuevas oportunidades. — OpenAI
GitHub Copilot — facturación basada en uso mediante GitHub AI Credits a partir del 1 de junio
27 de abril — GitHub anuncia que todos los planes Copilot pasarán a un modelo de facturación basada en uso (usage-based billing) a partir del 1 de junio de 2026. La noción de “premium request units” (PRUs) desaparece en favor de los GitHub AI Credits, consumidos en función del uso real de tokens (entrada, salida, caché) según una tarifa por modelo.
Starting June 1st, GitHub Copilot will move to a usage-based billing model as GitHub Copilot supports more agentic and advanced workflows.
🇪🇸 A partir del 1 de junio, GitHub Copilot pasará a un modelo de facturación basada en uso, a medida que Copilot admite flujos de trabajo agénticos y avanzados. — @github en X
Los precios de los planes se mantienen iguales —la novedad es que los créditos incluidos ahora equivalen al precio mensual del plan:
| Plan | Precio mensual | AI Credits incluidos | Bono de transición |
|---|---|---|---|
| Copilot Pro | $10/mes | $10 en créditos | — |
| Copilot Pro+ | $39/mes | $39 en créditos | — |
| Copilot Business | $19/usuario/mes | $19 en créditos | $30/mes adicionales (transición) |
| Copilot Enterprise | $39/usuario/mes | $39 en créditos | $70/mes adicionales (transición) |
Puntos clave para los equipos:
- Las completaciones de código y las sugerencias Next Edit siguen incluidas sin consumir créditos
- El mecanismo de fallback hacia modelos más baratos (cuando se agotaban las PRUs) desaparece — cuando se consumen los créditos, el uso se detiene de forma inmediata
- Copilot code review consumirá minutos de GitHub Actions además de los AI Credits
- Los créditos se agrupan a nivel de organización — fin de los créditos perdidos por asiento no utilizado
- Una preview bill estará disponible en mayo para estimar los costes reales antes del cambio
- Los administradores dispondrán de nuevos controles presupuestarios (enterprise, cost center, equipo, usuario)
OpenAI Symphony — especificación de código abierto para la orquestación de Codex
27 de abril — El equipo de ingeniería de OpenAI publica Symphony, una especificación de código abierto para orquestar varias sesiones de Codex en paralelo. El proyecto nació de una restricción interna radical: construir un repositorio completo sin una sola línea de código humano, con cada contribución generada por Codex.
Symphony resuelve el cuello de botella que apareció rápidamente en este ejercicio: el cambio de contexto (context switching) entre sesiones de Codex independientes requería demasiado tiempo de supervisión humana. La solución orquesta automáticamente varios agentes en tareas paralelas, los ejecuta en devboxes de forma continua y permite enviar tickets desde cualquier dispositivo —teléfono, mala conexión— para que los agentes los traten sin intervención.
| Métrica | Valor |
|---|---|
| Aumento de PRs entregadas | +500 % en 3 semanas (algunos equipos de OpenAI) |
| Adopción externa | Linear informó de un pico de creación de workspaces durante el lanzamiento |
La idea central del equipo: cuando los ingenieros ya no tienen que supervisar activamente las sesiones de Codex, el coste percibido de cada modificación de código se desploma. Los equipos exploran más, prototipan con mayor libertad y abandonan con más facilidad las vías sin valor añadido.
Google DeepMind × República de Corea — asociación científica nacional
27 de abril — Google DeepMind anuncia una asociación con el Ministerio de Ciencia y TIC de Corea (MSIT), con motivo del 10.º aniversario del histórico partido de AlphaGo en Seúl. El acuerdo prevé varios ejes concretos:
| Eje | Detalle |
|---|---|
| AI Campus | Creación de un campus de IA en Seúl para apoyar la investigación académica coreana |
| Herramientas desplegadas | AlphaEvolve, AlphaGenome, AlphaFold, AI co-scientist, WeatherNext |
| Adopción existente | AlphaFold ya lo usan 85 000 investigadores coreanos |
| Becas | 50 000 becas AI Essentials para el desarrollo del talento |
| Seguridad IA | Colaboración con el Instituto Coreano de Seguridad de IA (AISI) |
| NAIS | Centro nacional de IA para la ciencia previsto para mayo de 2026 |
“Ten years ago, the historic AlphaGo match in Seoul captured the world’s imagination and showcased the profound potential of artificial intelligence. Together with the Korean government, we’re now looking at how this technology can help accelerate scientific discovery and create new opportunities for economic growth across the region.”
🇪🇸 Hace diez años, el histórico partido de AlphaGo en Seúl cautivó la imaginación del mundo entero y puso de relieve el profundo potencial de la inteligencia artificial. Junto con el gobierno coreano, ahora estamos examinando cómo esta tecnología puede ayudar a acelerar el descubrimiento científico y crear nuevas oportunidades de crecimiento económico en la región. — Google DeepMind
OpenAI “Our Principles” — cinco principios para la era de la AGI
26 de abril — Sam Altman publica “Our Principles”, un documento que articula la visión de OpenAI sobre el papel de la IA en la sociedad. La tesis central: la IA puede transformar la sociedad a una escala superior a la de la máquina de vapor o la electricidad, y la cuestión fundamental es saber si el poder derivado de la AGI estará concentrado en unas pocas empresas o distribuido ampliamente.
| Principio (EN) | Traducción FR |
|---|---|
| Democratization | Democratización |
| Empowerment | Empoderamiento (Empowerment) |
| Universal Prosperity | Prosperidad universal |
| Resilience | Resiliencia |
| Adaptability | Adaptabilidad |
Kimi K2.6 — primero en el ranking semanal de OpenRouter
27 de abril — Kimi K2.6 se sitúa en el primer puesto del ranking semanal (weekly leaderboard) de modelos de lenguaje en OpenRouter, que agrega las consultas de miles de desarrolladores para establecer una medida de uso real. Esta posición refleja una adopción significativa por parte de desarrolladores, especialmente en los ámbitos agent y de larga ventana de contexto, donde K2.6 se había destacado con sus 300 subagentes paralelos (anunciado el 23 de abril).
Breves
- Z.ai — extensión del período “triple usage” de GLM-5.1 y GLM-5-Turbo — Z.ai prolonga hasta el 30 de junio de 2026 la oferta que permite a los suscriptores de GLM Coding Plan beneficiarse del mismo volumen de consultas que GLM-5-Plus a una tarifa inferior. 🔗 fuente
- Genspark × Anthropic — primer hackathon en Singapur — Más de 40 proyectos, $18 000 en créditos API, socios Temasek y Devfolio. Los equipos construyeron herramientas para automatizar conversaciones comerciales, reemplazar tarjetas de visita y capitalizar el conocimiento colectivo de los equipos. 🔗 fuente
- Google & Kaggle — GenAI Intensive Vibe Coding Course (15-19 de junio de 2026) — Regreso del curso gratuito de 5 días, esta vez con un enfoque en “vibe coding” (programación mediante lenguaje natural). La primera edición había reunido a 1,5 millones de alumnos en noviembre de 2025. 🔗 fuente
- Midjourney — clasificación de alta resolución 2K para v8.1/8.2 — Primera sesión de clasificación comunitaria a resolución completa 2K para afinar la estética nativa en alta definición de las futuras versiones v8.1 y v8.2. 🔗 fuente
Qué significa esto
La jornada del 27 de abril ilustra una recomposición de las alianzas y de los modelos económicos de la IA. El acuerdo enmendado OpenAI × Microsoft señala que las grandes plataformas de IA buscan ahora liberarse de las dependencias exclusivas de la nube —un movimiento que beneficia a AWS, Google Cloud y Oracle tanto como a OpenAI. Para los desarrolladores, la señal más concreta es el paso de GitHub Copilot a AI Credits: el fin del fallback de modelos significa que una sesión agéntica larga puede agotar el presupuesto mensual, y los equipos deberán calibrar sus usos antes del 1 de junio. Symphony de OpenAI avanza en la misma dirección: la orquestación paralela de agentes se convierte en una práctica de ingeniería en toda regla, con resultados medibles (+500 % de PRs entregadas) que justifican invertir en la infraestructura alrededor de Codex. En el plano geopolítico, la asociación DeepMind × Corea confirma la tendencia de los grandes laboratorios a cerrar acuerdos nacionales para anclar su presencia académica y política en ecosistemas regionales clave.
Fuentes
- OpenAI — La siguiente fase de la asociación con Microsoft
- OpenAI Engineering — Una especificación de código abierto para la orquestación de Codex: Symphony
- OpenAI — Our Principles
- Sam Altman en X
- GitHub Blog — GitHub Copilot pasa a la facturación basada en uso
- @github en X
- Google DeepMind — Anunciando nuestra asociación con la República de Corea
- @GoogleDeepMind en X
- Curso Kaggle GenAI Intensive Vibe Coding — blog.google
- @Kimi_Moonshot en X
- @Zai_org en X
- @genspark_ai en X
- Midjourney — Clasificación de alta resolución
- Midjourney — Rank v8.1
Este documento ha sido traducido de la versión fr al idioma es utilizando el modelo gpt-5.4-mini. Para más información sobre el proceso de traducción, consulte https://github.com/jls42/ai-powered-markdown-translator