Semana intensa en el ecosistema de IA
Del 9 al 15 de enero de 2026, los anuncios se multiplicaron: reestructuración en Anthropic, asociaciones de hardware y energía en OpenAI, acercamiento histórico Google-Apple, y novedades de Qwen y ElevenLabs.
Anthropic Labs: una nueva estructura de producto
13 de enero de 2026 — Anthropic anuncia la expansión de Labs, un equipo dedicado a la incubación de productos experimentales en las fronteras de las capacidades de Claude.
Mike Krieger, cofundador de Instagram y Chief Product Officer de Anthropic desde hace dos años, se une a Labs para construir junto a Ben Mann. Ami Vora asume la dirección de la organización de Producto, en asociación con Rahul Patil (CTO).
“The speed of advancement in AI demands a different approach to how we build, how we organize, and where we focus. Labs gives us room to break the mold and explore.”
🇪🇸 “La velocidad de los avances en IA exige un enfoque diferente sobre cómo construimos, cómo nos organizamos y dónde nos enfocamos. Labs nos da espacio para romper el molde y explorar.” — Daniela Amodei, Presidenta de Anthropic
Esta estructura ya ha producido Claude Code (que se convirtió en un producto de mil millones de dólares en seis meses), el Model Context Protocol (100M descargas mensuales), Skills, Claude in Chrome y Cowork.
OpenAI: asociaciones de hardware y energía
Asociación con Cerebras
14 de enero de 2026 — OpenAI se asocia con Cerebras Systems para agregar 750 MW de capacidad de inferencia ultrarrápida. Cerebras construye procesadores de IA en un solo chip gigante, combinando cómputo, memoria y ancho de banda para eliminar los cuellos de botella de la inferencia tradicional.
“OpenAI’s compute strategy is to build a resilient portfolio that matches the right systems to the right workloads. Cerebras adds a dedicated low-latency inference solution to our platform.”
🇪🇸 “La estrategia de cómputo de OpenAI es construir un portafolio resiliente que asocie los sistemas adecuados a las cargas de trabajo adecuadas. Cerebras añade una solución de inferencia dedicada de baja latencia a nuestra plataforma.” — Sachin Katti, OpenAI
La capacidad se desplegará en tramos hasta 2028.
Inversión en Merge Labs
15 de enero de 2026 — OpenAI invierte en Merge Labs, un laboratorio de investigación sobre interfaces cerebro-computadora (BCI). El objetivo: crear interfaces naturales y humanas para interactuar con la IA.
Los cofundadores incluyen a los investigadores Mikhail Shapiro, Tyson Aflalo y Sumner Norman, así como a Alex Blania, Sandro Herbig y Sam Altman (a título personal).
OpenAI colaborará con Merge Labs en modelos fundacionales científicos y herramientas de vanguardia para acelerar la investigación.
US AI Supply Chain
15 de enero de 2026 — OpenAI lanza un Request for Proposals (RFP) para fortalecer la cadena de suministro de IA estadounidense a través de la fabricación nacional de componentes.
| Campo | Componentes buscados |
|---|---|
| Electrónica de consumo | Módulos, herramientas, ensamblaje final |
| Centros de datos | Cómputo, alimentación, refrigeración, hardware |
| Robótica | Reductores, motores, electrónica de potencia |
Esta iniciativa se enmarca en Stargate, el proyecto de infraestructura de IA de 500 mil millones de dólares anunciado en enero. Fecha límite: junio de 2026.
SoftBank y SB Energy
9 de enero de 2026 — OpenAI y SoftBank Group invierten cada uno 500 millones de dólares en SB Energy para construir la infraestructura de IA de próxima generación.
Puntos clave:
- Contrato de arrendamiento de 1,2 GW para el primer centro de datos (condado de Milam, Texas)
- Campus multi-gigavatios con entrada en servicio a partir de 2026
- SB Energy se convierte en cliente de OpenAI, desplegando ChatGPT para sus empleados
“La asociación con SB Energy permite combinar la fortaleza de la empresa en el campo del desarrollo de infraestructura y energía de centros de datos y la profunda experiencia de OpenAI en ingeniería de centros de datos.” — Greg Brockman, cofundador y presidente de OpenAI
Google y Apple: Gemini para Apple Intelligence
12 de enero de 2026 — Google y Apple anuncian una colaboración multi-anual histórica: las próximas generaciones de Apple Foundation Models se basarán en los modelos Gemini y la tecnología en la nube de Google.
Lo que esto implica:
- Un Siri más personalizado previsto para este año
- Apple Intelligence continuará funcionando en dispositivos Apple y Private Cloud Compute
- Se mantendrán los estándares de privacidad de Apple
Apple determinó, tras evaluación, que la tecnología de IA de Google ofrece la base más capaz para los Apple Foundation Models.
🔗 Joint statement Google and Apple
ElevenLabs: asociación con Deutsche Telekom
Enero de 2026 — ElevenLabs anuncia una asociación con Deutsche Telekom, el mayor operador de telecomunicaciones europeo. El objetivo: desplegar agentes de voz IA para el servicio al cliente, accesibles por aplicación y por teléfono.
Esta asociación marca la expansión de ElevenLabs en Europa con un actor importante de las telecomunicaciones.
Qwen: cuatro novedades importantes
Qwen3Guard — Primer modelo de seguridad
Enero de 2026 — Alibaba lanza Qwen3Guard, el primer modelo de seguridad de la familia Qwen. Construido sobre los modelos fundamentales Qwen3, asegura la detección de contenido peligroso para prompts y respuestas.
Características clave:
| Aspecto | Detalles |
|---|---|
| Variantes | Qwen3Guard-Gen (generativo, para anotación offline) y Qwen3Guard-Stream (tiempo real, token por token) |
| Tamaños | 0.6B, 4B, 8B parámetros |
| Idiomas | 119 idiomas y dialectos |
| Clasificación | Safe / Controversial / Unsafe (3 niveles) |
El modelo Stream permite una moderación en tiempo real durante la generación de respuestas, permitiendo una intervención instantánea.
Qwen-Image-Edit — Edición de imágenes inteligente
Enero de 2026 — Qwen-Image-Edit extiende las capacidades de Qwen-Image a la edición de imágenes. El modelo de 20B parámetros destaca en:
- Edición semántica: modificación de estilo, rotación de objetos (hasta 180°), creación de IP, estilo Ghibli
- Edición de apariencia: adición/eliminación de elementos con reflejos realistas, cambio de ropa, fondos
- Edición de texto: modificación precisa del texto en imágenes (chino e inglés), corrección de caligrafía por pasos sucesivos
Qwen-MT — Traducción de alto rendimiento
Enero de 2026 — Qwen-MT (qwen-mt-turbo) es un modelo de traducción que soporta 92 idiomas. Basado en Qwen3 con una arquitectura MoE ligera, ofrece:
- Coste reducido: $0.5 por millón de tokens de salida
- Personalización: intervención terminológica, prompts de dominio, memoria de traducción
- Rendimiento: supera a GPT-4.1-mini y Gemini-2.5-Flash en los benchmarks de traducción
🔗 Qwen-MT
GSPO — Nuevo algoritmo de RL
2025 — Qwen publica GSPO (Group Sequence Policy Optimization), un nuevo algoritmo de reinforcement learning que resuelve los problemas de estabilidad de GRPO.
Ventajas:
- Optimización a nivel de secuencia en lugar de a nivel de tokens
- Estabilidad notable para el entrenamiento RL de modelos MoE
- Más tolerante a las desviaciones de precisión, simplificando la infraestructura
Este algoritmo alimenta los últimos modelos Qwen3 (Instruct, Coder, Thinking).
Lo que esto significa
Esta semana ilustra varias tendencias:
- Reestructuración de producto: Anthropic crea una estructura dedicada a la innovación rápida con Labs
- Carrera por el hardware: OpenAI multiplica las asociaciones (Cerebras, SB Energy) y las inversiones para asegurar la infraestructura
- Convergencia de gigantes: Google y Apple se alían en Gemini para Siri — un acercamiento histórico
- Interfaces futuras: La inversión en Merge Labs (BCI) muestra el interés en las interfaces cerebro-computadora
- Seguridad de IA: Qwen3Guard muestra que los modelos de seguridad se están volviendo esenciales en el ecosistema
- Expansión europea: ElevenLabs continúa su crecimiento con Deutsche Telekom