El 20 de abril de 2026 concentra varios anuncios estructurantes: Anthropic y Amazon amplían su asociación en torno a 5 GW de capacidad de cálculo y una inversión de $5B, GitHub suspende las nuevas inscripciones a los planes individuales de Copilot al tiempo que ajusta los límites de uso, y dos nuevos modelos empujan al alza los benchmarks de coding — Kimi K2.6 en open-source y Qwen3.6-Max-Preview en propietario. OpenAI lanza además Codex Chronicle, una memoria contextual basada en capturas de pantalla.
Anthropic y Amazon — 5 GW de compute, inversión de $5B
20 de abril — Anthropic y Amazon han firmado un nuevo acuerdo de infraestructura que asegura hasta 5 gigavatios (GW) de capacidad de cálculo para el entrenamiento y el despliegue de Claude. Una capacidad significativa de Trainium2 llega ya en el segundo trimestre de 2026, con casi 1 GW total de Trainium2 y Trainium3 esperado para finales de 2026.
El acuerdo se articula en tres partes:
| Parte | Detalle |
|---|---|
| Infraestructura | Compromiso de más de 100 mil millones USD durante 10 años con AWS, cubriendo Graviton y Trainium2 hasta Trainium4 |
| Claude Platform en AWS | La Claude Platform completa integrada directamente en AWS — misma cuenta, misma facturación, sin contratos separados |
| Inversión | Amazon invierte $5 mil millones USD en Anthropic hoy, con hasta $20 mil millones USD adicionales en el futuro |
Anthropic revela que su facturación anualizada supera ahora los 30 mil millones USD, frente a aproximadamente 9 mil millones a finales de 2025. Este rápido crecimiento ha puesto bajo presión la infraestructura existente, afectando a la fiabilidad para los usuarios gratuitos, Pro, Max y Team en horas punta.
Más de 100 000 clientes ya ejecutan Claude en Amazon Bedrock, y Anthropic utiliza más de un millón de chips Trainium2. La Claude Platform completa ya es accesible directamente desde la cuenta AWS sin necesidad de contratos separados — un cambio concreto para los desarrolladores y empresas ya en AWS.
Claude sigue siendo además el único modelo de IA de vanguardia disponible en las tres principales plataformas cloud mundiales: AWS (Bedrock), Google Cloud (Vertex AI) y Microsoft Azure (Foundry).
“Our users tell us Claude is increasingly essential to how they work, and we need to build the infrastructure to keep pace with rapidly growing demand.”
🇪🇸 «Nuestros usuarios nos dicen que Claude es cada vez más esencial para su forma de trabajar, y debemos construir la infraestructura para seguir el ritmo de una demanda en fuerte crecimiento.» — Dario Amodei, vía @AnthropicAI en X
🔗 Anuncio oficial de Anthropic
GitHub Copilot — Suspensión de las inscripciones Pro/Pro+ y endurecimiento de los límites
20 de abril — GitHub publica cambios significativos en los planes individuales de Copilot. Las nuevas inscripciones a los planes Pro, Pro+ y Student quedan suspendidas de inmediato. El plan Copilot Free, por su parte, sigue abierto.
Los cambios en detalle:
| Cambio | Detalle |
|---|---|
| Pausa en inscripciones | Pro, Pro+, Student — cerrados a nuevos usuarios. Copilot Free sigue abierto |
| Límites de uso | Pro+ ofrece 5× los límites de Pro. Avisos en VS Code y Copilot CLI al aproximarse al límite |
| Modelos Opus | Opus retirado de Copilot Pro. Opus 4.7 sigue disponible solo en Pro+. Opus 4.5 y 4.6 también se retirarán de Pro+ más adelante |
| Reembolso | Posibilidad de cancelar y ser reembolsado por abril contactando con soporte entre el 20 de abril y el 20 de mayo de 2026 |
Para los usuarios ya suscritos, los planes existentes siguen activos. El impacto concreto: los usuarios Pro que tenían acceso a los modelos Opus pierden ese acceso, mientras que Pro+ pasa de facto a ser el nivel intermedio con 5× más cuota. La ventana de reembolso hasta el 20 de mayo deja un mes para decidir.
🔗 GitHub Changelog — Cambios en los planes individuales
Kimi K2.6 — SOTA open-source en coding y agentes
20 de abril — Moonshot AI lanza Kimi K2.6, nuevo modelo open-source que establece varios récords (state of the art) en los benchmarks de coding y de agentes. El anuncio generó más de 1,5 millones de vistas en unas horas.
Benchmarks open-source:
| Benchmark | Score K2.6 |
|---|---|
| SWE-Bench Pro | 58,6 |
| SWE-bench Multilingual | 76,7 |
| HLE with tools | 54,0 |
| BrowseComp | 83,2 |
| Toolathlon | 50,0 |
| Charxiv w/ python | 86,7 |
| Math Vision w/ python | 93,2 |
Las mejoras con respecto a K2.5 son sustanciales. En el coding de largo horizonte (long-horizon coding), K2.6 encadena hasta 4 000 llamadas a herramientas en una sesión y puede funcionar más de 12 horas seguidas, con una generalización multilenguaje (Rust, Go, Python) y multitarea (frontend, DevOps, optimización de rendimiento).
La arquitectura multiagente también ha mejorado: 300 subagentes paralelos × 4 000 pasos por ejecución, frente a 100 subagentes × 1 500 pasos para K2.5. K2.6 admite de forma nativa interfaces frontend avanzadas — vídeos en las secciones hero, shaders WebGL, animaciones GSAP + Framer Motion, renderizados 3D con Three.js.
Los pesos están disponibles en open-source en HuggingFace. La API está accesible en platform.moonshot.ai, y el modelo funciona en modo chat y en modo agente en kimi.com.
🔗 Anuncio de Kimi K2.6 en X — 🔗 Blog de Kimi K2.6 — 🔗 Pesos en HuggingFace
Qwen3.6-Max-Preview — Avantpremière del próximo modelo insignia
20 de abril — Alibaba Qwen lanza Qwen3.6-Max-Preview, una avantpremière de su próximo modelo propietario insignia, sucesor de Qwen3.6-Plus.
Ganancias en los benchmarks con respecto a Qwen3.6-Plus:
| Benchmark | Ganancia |
|---|---|
| SkillsBench | +9,9 |
| SciCode | +6,3 |
| NL2Repo | +5,0 |
| Terminal-Bench 2.0 | +3,8 |
| QwenChineseBench | +5,3 |
| SuperGPQA | +2,3 |
| ToolcallFormatIFBench | +2,8 |
El modelo se sitúa a la cabeza en 6 benchmarks de coding principales: SWE-bench Pro, Terminal-Bench 2.0, SkillsBench, QwenClawBench, QwenWebBench y SciCode. Está disponible desde hoy en acceso anticipado a través de chat.qwen.ai y mediante la API Alibaba Cloud Model Studio bajo el identificador qwen3.6-max-preview. Es compatible con las specs OpenAI y Anthropic, y admite el modo preserve_thinking para tareas agenticas.
Se trata de una versión aún en desarrollo activo — se anuncian iteraciones adicionales antes de la salida final.
🔗 Anuncio de Qwen en X — 🔗 Blog Qwen3.6-Max-Preview
Codex Chronicle (Research Preview) — Memoria contextual por capturas de pantalla
20 de abril — OpenAI lanza Codex Chronicle en Research Preview, una nueva función de memoria contextual para Codex. Chronicle ejecuta agentes en segundo plano para construir memorias a partir de capturas de pantalla recientes, permitiendo a Codex reanudar una sesión de trabajo sin que el usuario tenga que actualizar manualmente el contexto.
Funcionamiento: los agentes capturan la pantalla periódicamente, extraen el contexto de trabajo y almacenan memorias localmente en el dispositivo. El usuario puede inspeccionar y modificar estas memorias. OpenAI advierte que otras aplicaciones pueden acceder potencialmente a los archivos de capturas.
Disponibilidad limitada al lanzamiento: reservado para usuarios Pro en macOS, excluido de los países de la UE, Reino Unido y Suiza durante la fase de aprendizaje.
🔗 Anuncio de Codex Chronicle en X
Grok — Extensiones de vídeo coherentes
20 de abril — Grok Imagine anuncia extensiones de vídeo mejoradas (Smarter Video Extensions). Grok ve ahora el prompt original y el clip fuente para generar extensiones coherentes en contenido y audio. La continuidad de audio se mantiene durante toda la extensión. Disponible en la app Grok y en la web.
NotebookLM — Portadas personalizadas para los notebooks
16 de abril — NotebookLM permite ahora añadir una ilustración de portada personalizada y una descripción a cualquier notebook. La función busca personalizar la vista en cuadrícula antes de compartir un notebook. Formato recomendado: imagen 16:9.
En breve
TeenAegis AI Danger Index (18 abr.) — En su primer índice de peligrosidad de las IA (AI Danger Index), TeenAegis asignó a OpenAI la puntuación de riesgo más baja entre los proveedores evaluados. El índice evalúa la protección de los usuarios jóvenes: controles adaptados a la edad, supervisión, denuncia y medidas de protección. 🔗 Tweet OpenAI Newsroom
OpenAI Academy — 3M+ usuarios (19 abr.) — La plataforma de formación en IA de OpenAI supera los 3 millones de usuarios, con eventos presenciales organizados esta semana desde Varsovia hasta Abilene (Texas) pasando por Cal State Bakersfield. 🔗 Tweet OpenAI Newsroom
Lo que significa
El acuerdo Anthropic-Amazon es estructurante en varios aspectos: formaliza una dependencia recíproca (Anthropic necesita el compute, Amazon necesita Claude para que Bedrock sea competitivo), y la facturación unificada de AWS elimina una fricción real para los equipos que ya están en el ecosistema Amazon. La cifra de run-rate de $30B anualizados, multiplicada por más de 3 en unos meses, explica por qué la infraestructura está bajo presión y por qué este acuerdo era urgente.
Por el lado de los modelos, la jornada del 20 de abril ilustra una dinámica de compresión rápida de las diferencias: Kimi K2.6 en open-source alcanza puntuaciones comparables a modelos propietarios lanzados hace apenas unas semanas, y Qwen3.6-Max-Preview sitúa a Alibaba al frente de los benchmarks coding incluso antes de la versión final. La reestructuración de los planes Copilot en GitHub señala una tensión entre adopción amplia (Free) y monetización sostenible (Pro+), con una experiencia de usuario que se fragmenta según los niveles.
Fuentes
- Anuncio oficial de Anthropic + Amazon
- @AnthropicAI en X — tuit principal
- @AnthropicAI en X — detalles $5B/$20B
- GitHub Changelog — Cambios en los planes de Copilot individuales
- @Kimi_Moonshot en X — Kimi K2.6
- Blog Kimi K2.6
- Kimi K2.6 en HuggingFace
- @Alibaba_Qwen en X — Qwen3.6-Max-Preview
- Blog Qwen3.6-Max-Preview
- @OpenAIDevs en X — Codex Chronicle
- @grok en X — Smarter Video Extensions
- @NotebookLM en X — Portadas personalizadas
- @OpenAINewsroom — TeenAegis AI Danger Index
- @OpenAINewsroom — OpenAI Academy 3M+
Este documento ha sido traducido de la versión fr al idioma es utilizando el modelo gpt-5.4-mini. Para más información sobre el proceso de traducción, consulte https://gitlab.com/jls42/ai-powered-markdown-translator