Buscar

Anthropic + Amazon 5 GW $5B, GitHub Copilot reestructura sus planes, Kimi K2.6 SOTA open-source, Qwen3.6-Max-Preview, Codex Chronicle

Anthropic + Amazon 5 GW $5B, GitHub Copilot reestructura sus planes, Kimi K2.6 SOTA open-source, Qwen3.6-Max-Preview, Codex Chronicle

El 20 de abril de 2026 concentra varios anuncios estructurantes: Anthropic y Amazon amplían su asociación en torno a 5 GW de capacidad de cálculo y una inversión de $5B, GitHub suspende las nuevas inscripciones a los planes individuales de Copilot al tiempo que ajusta los límites de uso, y dos nuevos modelos empujan al alza los benchmarks de coding — Kimi K2.6 en open-source y Qwen3.6-Max-Preview en propietario. OpenAI lanza además Codex Chronicle, una memoria contextual basada en capturas de pantalla.


Anthropic y Amazon — 5 GW de compute, inversión de $5B

20 de abril — Anthropic y Amazon han firmado un nuevo acuerdo de infraestructura que asegura hasta 5 gigavatios (GW) de capacidad de cálculo para el entrenamiento y el despliegue de Claude. Una capacidad significativa de Trainium2 llega ya en el segundo trimestre de 2026, con casi 1 GW total de Trainium2 y Trainium3 esperado para finales de 2026.

El acuerdo se articula en tres partes:

ParteDetalle
InfraestructuraCompromiso de más de 100 mil millones USD durante 10 años con AWS, cubriendo Graviton y Trainium2 hasta Trainium4
Claude Platform en AWSLa Claude Platform completa integrada directamente en AWS — misma cuenta, misma facturación, sin contratos separados
InversiónAmazon invierte $5 mil millones USD en Anthropic hoy, con hasta $20 mil millones USD adicionales en el futuro

Anthropic revela que su facturación anualizada supera ahora los 30 mil millones USD, frente a aproximadamente 9 mil millones a finales de 2025. Este rápido crecimiento ha puesto bajo presión la infraestructura existente, afectando a la fiabilidad para los usuarios gratuitos, Pro, Max y Team en horas punta.

Más de 100 000 clientes ya ejecutan Claude en Amazon Bedrock, y Anthropic utiliza más de un millón de chips Trainium2. La Claude Platform completa ya es accesible directamente desde la cuenta AWS sin necesidad de contratos separados — un cambio concreto para los desarrolladores y empresas ya en AWS.

Claude sigue siendo además el único modelo de IA de vanguardia disponible en las tres principales plataformas cloud mundiales: AWS (Bedrock), Google Cloud (Vertex AI) y Microsoft Azure (Foundry).

“Our users tell us Claude is increasingly essential to how they work, and we need to build the infrastructure to keep pace with rapidly growing demand.”

🇪🇸 «Nuestros usuarios nos dicen que Claude es cada vez más esencial para su forma de trabajar, y debemos construir la infraestructura para seguir el ritmo de una demanda en fuerte crecimiento.»Dario Amodei, vía @AnthropicAI en X

🔗 Anuncio oficial de Anthropic


GitHub Copilot — Suspensión de las inscripciones Pro/Pro+ y endurecimiento de los límites

20 de abril — GitHub publica cambios significativos en los planes individuales de Copilot. Las nuevas inscripciones a los planes Pro, Pro+ y Student quedan suspendidas de inmediato. El plan Copilot Free, por su parte, sigue abierto.

Los cambios en detalle:

CambioDetalle
Pausa en inscripcionesPro, Pro+, Student — cerrados a nuevos usuarios. Copilot Free sigue abierto
Límites de usoPro+ ofrece 5× los límites de Pro. Avisos en VS Code y Copilot CLI al aproximarse al límite
Modelos OpusOpus retirado de Copilot Pro. Opus 4.7 sigue disponible solo en Pro+. Opus 4.5 y 4.6 también se retirarán de Pro+ más adelante
ReembolsoPosibilidad de cancelar y ser reembolsado por abril contactando con soporte entre el 20 de abril y el 20 de mayo de 2026

Para los usuarios ya suscritos, los planes existentes siguen activos. El impacto concreto: los usuarios Pro que tenían acceso a los modelos Opus pierden ese acceso, mientras que Pro+ pasa de facto a ser el nivel intermedio con 5× más cuota. La ventana de reembolso hasta el 20 de mayo deja un mes para decidir.

🔗 GitHub Changelog — Cambios en los planes individuales


Kimi K2.6 — SOTA open-source en coding y agentes

20 de abril — Moonshot AI lanza Kimi K2.6, nuevo modelo open-source que establece varios récords (state of the art) en los benchmarks de coding y de agentes. El anuncio generó más de 1,5 millones de vistas en unas horas.

Benchmarks open-source:

BenchmarkScore K2.6
SWE-Bench Pro58,6
SWE-bench Multilingual76,7
HLE with tools54,0
BrowseComp83,2
Toolathlon50,0
Charxiv w/ python86,7
Math Vision w/ python93,2

Las mejoras con respecto a K2.5 son sustanciales. En el coding de largo horizonte (long-horizon coding), K2.6 encadena hasta 4 000 llamadas a herramientas en una sesión y puede funcionar más de 12 horas seguidas, con una generalización multilenguaje (Rust, Go, Python) y multitarea (frontend, DevOps, optimización de rendimiento).

La arquitectura multiagente también ha mejorado: 300 subagentes paralelos × 4 000 pasos por ejecución, frente a 100 subagentes × 1 500 pasos para K2.5. K2.6 admite de forma nativa interfaces frontend avanzadas — vídeos en las secciones hero, shaders WebGL, animaciones GSAP + Framer Motion, renderizados 3D con Three.js.

Los pesos están disponibles en open-source en HuggingFace. La API está accesible en platform.moonshot.ai, y el modelo funciona en modo chat y en modo agente en kimi.com.

🔗 Anuncio de Kimi K2.6 en X — 🔗 Blog de Kimi K2.6 — 🔗 Pesos en HuggingFace


Qwen3.6-Max-Preview — Avantpremière del próximo modelo insignia

20 de abril — Alibaba Qwen lanza Qwen3.6-Max-Preview, una avantpremière de su próximo modelo propietario insignia, sucesor de Qwen3.6-Plus.

Ganancias en los benchmarks con respecto a Qwen3.6-Plus:

BenchmarkGanancia
SkillsBench+9,9
SciCode+6,3
NL2Repo+5,0
Terminal-Bench 2.0+3,8
QwenChineseBench+5,3
SuperGPQA+2,3
ToolcallFormatIFBench+2,8

El modelo se sitúa a la cabeza en 6 benchmarks de coding principales: SWE-bench Pro, Terminal-Bench 2.0, SkillsBench, QwenClawBench, QwenWebBench y SciCode. Está disponible desde hoy en acceso anticipado a través de chat.qwen.ai y mediante la API Alibaba Cloud Model Studio bajo el identificador qwen3.6-max-preview. Es compatible con las specs OpenAI y Anthropic, y admite el modo preserve_thinking para tareas agenticas.

Se trata de una versión aún en desarrollo activo — se anuncian iteraciones adicionales antes de la salida final.

🔗 Anuncio de Qwen en X — 🔗 Blog Qwen3.6-Max-Preview


Codex Chronicle (Research Preview) — Memoria contextual por capturas de pantalla

20 de abril — OpenAI lanza Codex Chronicle en Research Preview, una nueva función de memoria contextual para Codex. Chronicle ejecuta agentes en segundo plano para construir memorias a partir de capturas de pantalla recientes, permitiendo a Codex reanudar una sesión de trabajo sin que el usuario tenga que actualizar manualmente el contexto.

Funcionamiento: los agentes capturan la pantalla periódicamente, extraen el contexto de trabajo y almacenan memorias localmente en el dispositivo. El usuario puede inspeccionar y modificar estas memorias. OpenAI advierte que otras aplicaciones pueden acceder potencialmente a los archivos de capturas.

Disponibilidad limitada al lanzamiento: reservado para usuarios Pro en macOS, excluido de los países de la UE, Reino Unido y Suiza durante la fase de aprendizaje.

🔗 Anuncio de Codex Chronicle en X


Grok — Extensiones de vídeo coherentes

20 de abril — Grok Imagine anuncia extensiones de vídeo mejoradas (Smarter Video Extensions). Grok ve ahora el prompt original y el clip fuente para generar extensiones coherentes en contenido y audio. La continuidad de audio se mantiene durante toda la extensión. Disponible en la app Grok y en la web.

🔗 Anuncio de Grok en X


NotebookLM — Portadas personalizadas para los notebooks

16 de abril — NotebookLM permite ahora añadir una ilustración de portada personalizada y una descripción a cualquier notebook. La función busca personalizar la vista en cuadrícula antes de compartir un notebook. Formato recomendado: imagen 16:9.

🔗 Anuncio de NotebookLM en X


En breve

TeenAegis AI Danger Index (18 abr.) — En su primer índice de peligrosidad de las IA (AI Danger Index), TeenAegis asignó a OpenAI la puntuación de riesgo más baja entre los proveedores evaluados. El índice evalúa la protección de los usuarios jóvenes: controles adaptados a la edad, supervisión, denuncia y medidas de protección. 🔗 Tweet OpenAI Newsroom

OpenAI Academy — 3M+ usuarios (19 abr.) — La plataforma de formación en IA de OpenAI supera los 3 millones de usuarios, con eventos presenciales organizados esta semana desde Varsovia hasta Abilene (Texas) pasando por Cal State Bakersfield. 🔗 Tweet OpenAI Newsroom


Lo que significa

El acuerdo Anthropic-Amazon es estructurante en varios aspectos: formaliza una dependencia recíproca (Anthropic necesita el compute, Amazon necesita Claude para que Bedrock sea competitivo), y la facturación unificada de AWS elimina una fricción real para los equipos que ya están en el ecosistema Amazon. La cifra de run-rate de $30B anualizados, multiplicada por más de 3 en unos meses, explica por qué la infraestructura está bajo presión y por qué este acuerdo era urgente.

Por el lado de los modelos, la jornada del 20 de abril ilustra una dinámica de compresión rápida de las diferencias: Kimi K2.6 en open-source alcanza puntuaciones comparables a modelos propietarios lanzados hace apenas unas semanas, y Qwen3.6-Max-Preview sitúa a Alibaba al frente de los benchmarks coding incluso antes de la versión final. La reestructuración de los planes Copilot en GitHub señala una tensión entre adopción amplia (Free) y monetización sostenible (Pro+), con una experiencia de usuario que se fragmenta según los niveles.


Fuentes

Este documento ha sido traducido de la versión fr al idioma es utilizando el modelo gpt-5.4-mini. Para más información sobre el proceso de traducción, consulte https://gitlab.com/jls42/ai-powered-markdown-translator