Día excepcional en la IA: Anthropic anuncia una recaudación de fondos de 30 mil millones de dólares elevando su valoración a 380 mil millones, OpenAI despliega un modelo de coding en tiempo real a 1000+ tokens/segundo en Cerebras, y Google impulsa Gemini 3 Deep Think hacia nuevos récords en ciencias. En el ecosistema, xAI reestructura sus equipos en torno a 4 productos, Mistral invierte 1.2 mil millones de euros en Suecia, y GitHub suspende temporalmente GPT-5.3-Codex por razones de fiabilidad.
Anthropic recauda 30 mil millones $ en Serie G
12 de febrero — Anthropic anuncia una recaudación de fondos de 30 mil millones de dólares en Serie G, llevando la valoración post-money de la empresa a 380 mil millones de dólares. La ronda está co-liderada por GIC y Coatue, con la participación de D. E. Shaw Ventures, Dragoneer, Founders Fund, ICONIQ y MGX. La lista de inversores adicionales incluye Sequoia Capital, BlackRock, Goldman Sachs, Fidelity, Microsoft y NVIDIA entre otros.
| Métrica | Valor |
|---|---|
| Cantidad recaudada | 30 mil millones $ |
| Valoración post-money | 380 mil millones $ |
| Ingresos anualizados (run-rate) | 14 mil millones $ |
| Crecimiento anual | 10x por año (últimos 3 años) |
| Clientes >100k$/año | Crecimiento de 7x en un año |
| Clientes Enterprise >1M$/año | Más de 500 (vs 12 hace 2 años) |
| Clientes Fortune 10 | 8 de 10 |
| Run-rate Claude Code | 2.5 mil millones $ (duplicado desde enero 2026) |
| Usuarios semanales Claude Code | 2x desde el 1 de enero de 2026 |
| Commits GitHub vía Claude Code | 4% (duplicado en 1 mes) |
| Suscripciones business Claude Code | 4x desde inicios de 2026 |
| Cuota empresa Claude Code | >50% de los ingresos de Claude Code |
Los fondos servirán para la investigación fundamental, el desarrollo de productos y la expansión de la infraestructura. Claude sigue siendo el único modelo IA frontier disponible en las tres principales plataformas cloud: AWS (Bedrock), Google Cloud (Vertex AI) y Microsoft Azure (Foundry). Anthropic entrena y ejecuta Claude en una gama diversificada de hardware IA (AWS Trainium, Google TPUs, NVIDIA GPUs).
This fundraising reflects the incredible demand we are seeing from these customers, and we will use this investment to continue building the enterprise-grade products and models they have come to depend on.
🇪🇸 Esta recaudación de fondos refleja la increíble demanda que estamos viendo de estos clientes, y utilizaremos esta inversión para continuar construyendo los productos y modelos de calidad empresarial de los que han llegado a depender. — Krishna Rao, CFO de Anthropic (@AnthropicAI en X)
GPT-5.3-Codex-Spark: modelo en tiempo real en Cerebras
12 de febrero — OpenAI lanza GPT-5.3-Codex-Spark en research preview, un modelo de coding en tiempo real optimizado para la inferencia ultrarrápida en el Cerebras Wafer-Scale Engine 3. Es el primer modelo OpenAI desplegado en hardware no NVIDIA.
Codex-Spark es una versión compacta de GPT-5.3-Codex, diseñada para el trabajo interactivo donde la latencia importa tanto como la inteligencia: ediciones específicas, refactorización de lógica, ajuste de interfaces con retroalimentación inmediata.
| Especificación | Detalle |
|---|---|
| Tokens/segundo | > 1,000 (vs 50-100 para modelos estándar) |
| Ventana de contexto | 128k tokens |
| Formato | Solo texto (multimodal previsto posteriormente) |
| Reducción overhead cliente/servidor | 80% (WebSocket persistente) |
| Reducción overhead por token | 30% |
| Reducción time-to-first-token | 50% |
El modelo se ejecuta en el Cerebras Wafer-Scale Engine 3, un procesador monolítico que mantiene el cómputo estrechamente acoplado para inferencia de alto rendimiento. Este lanzamiento marca el primer paso de la asociación OpenAI-Cerebras anunciada en enero de 2026.
Codex-Spark está disponible en research preview para suscriptores ChatGPT Pro, en las últimas versiones de la app Codex, del CLI y de la extensión VS Code. El acceso API está limitado a socios seleccionados, con un despliegue más amplio previsto.
En SWE-Bench Pro y Terminal-Bench 2.0, el modelo muestra un rendimiento sólido completando tareas en una fracción del tiempo en comparación con GPT-5.3-Codex. Se aplican límites de tasa separados durante la fase de research preview.
A largo plazo, Codex ofrecerá dos modos complementarios: razonamiento de largo horizonte (tareas autónomas de varias horas/días) y colaboración en tiempo real (iteración rápida). Ambos modos podrán combinarse, con delegación de tareas largas a sub-agentes en segundo plano.
Gemini 3 Deep Think: puntuaciones récord en ciencias
12 de febrero — Google anuncia una actualización importante de Gemini 3 Deep Think, su modo de razonamiento especializado. El modelo está ahora diseñado para resolver desafíos concretos en ciencia, investigación e ingeniería, más allá de la teoría abstracta.
Deep Think ha sido actualizado en estrecha colaboración con científicos e investigadores. El objetivo es abordar problemas de investigación complejos, donde los datos a menudo son desordenados o incompletos y donde no existe una solución única. El modelo combina conocimientos científicos profundos y utilidad en ingeniería.
Benchmarks récord
| Benchmark | Puntuación | Nota |
|---|---|---|
| Humanity’s Last Exam | 48.4% (sin herramientas) | Nuevo estándar para modelos frontier |
| ARC-AGI-2 | 84.6% | Verificado por la ARC Prize Foundation |
| Codeforces | Elo 3455 | Programación competitiva |
| IMO 2025 | Medalla de oro | Olimpiada Internacional de Matemáticas |
| IPhO 2025 (escrito) | Medalla de oro | Olimpiada Internacional de Física |
| IChO 2025 (escrito) | Medalla de oro | Olimpiada Internacional de Química |
| CMT-Benchmark | 50.5% | Física Teórica Avanzada |
Casos de uso reales
- Matemáticas (Lisa Carbone, Universidad Rutgers): Deep Think identificó un fallo lógico sutil en un artículo de matemáticas altamente técnico, que había escapado a la revisión humana por pares. Ella trabaja en las estructuras matemáticas necesarias para la física de altas energías.
- Ciencia de Materiales (Wang Lab, Universidad Duke): Optimización de métodos de fabricación para el crecimiento de cristales complejos, candidatos para materiales semiconductores. Deep Think diseñó una receta para cultivar películas delgadas de más de 100 micrómetros.
- Ingeniería Mecánica (Anupam Pathak, Google Platforms & Devices): Iteración en prototipos físicos a la velocidad del software. Posibilidad de transformar un boceto en un objeto imprimible en 3D (generación de archivo STL).
Gemini 3 Deep Think está disponible desde hoy para los suscriptores de Google AI Ultra en la app Gemini, y por primera vez a través de la API en acceso anticipado para investigadores, ingenieros y empresas.
Reestructuración de xAI: 4 equipos y Macrohard
11 de febrero — xAI publica un all-hands de 45 minutos en X, revelando una reestructuración importante de la empresa tras la salida de la mitad de sus cofundadores (6 de 12). Las últimas salidas son las de Tony Wu y Jimmy Ba.
Elon Musk anuncia la reorganización de xAI en 4 equipos principales:
| Equipo | Enfoque | Líder |
|---|---|---|
| Grok | Chatbot + voz | - |
| Coding | Sistema de código de aplicación | - |
| Imagine | Generación de video | - |
| Macrohard | Simulación informática → empresas | Toby Pohlen |
Macrohard es el proyecto más ambicioso: según Toby Pohlen, el sistema “es capaz de hacer todo lo que una computadora puede hacer en una computadora”. La ambición se extiende hasta el diseño de motores de cohetes por IA.
Métricas clave anunciadas
- X ha superado los mil millones de USD en ingresos recurrentes anuales (suscripciones)
- Imagine genera 50 millones de videos al día
- Más de 6 mil millones de imágenes en los últimos 30 días
La visión interplanetaria de Musk se extiende desde centros de datos orbitales hasta bases lunares. Estos anuncios se producen tras la adquisición de xAI por SpaceX (2 de febrero) y la salida de 6 cofundadores de 12 durante el último año (Kyle Kosic a OpenAI, Christian Szegedy, Igor Babuschkin, Greg Yang, Tony Wu, Jimmy Ba).
Mistral invierte 1.2 mil millones EUR en Suecia
11 de febrero — Mistral AI anuncia una inversión de 1.2 mil millones de euros (1.4 mil millones USD) para construir una infraestructura de IA en Suecia, en asociación con EcoDataCenter. Es la primera inversión de infraestructura de IA de Mistral fuera de Francia.
El centro de datos estará ubicado en Borlänge (Suecia) en el sitio de EcoDataCenter, con una apertura prevista para 2027. La instalación proporcionará 23 megavatios de potencia de cálculo y albergará las GPU NVIDIA Vera Rubin de última generación.
| Detalle | Valor |
|---|---|
| Cantidad | 1.2 mil millones EUR / 1.4 mil millones USD |
| Socio | EcoDataCenter |
| Ubicación | Borlänge, Suecia |
| Apertura | 2027 |
| Capacidad | 23 MW |
| GPU | NVIDIA Vera Rubin |
| Ingresos previstos | 2 mil millones EUR en 5 años |
Arthur Mensch, CEO de Mistral AI, declaró que esta inversión es “un paso concreto hacia la construcción de capacidades independientes en Europa, dedicadas a la IA”. La elección de Suecia se explica por su acceso a una energía limpia y relativamente barata. El objetivo es entregar un stack de IA totalmente europeo — diseñado, construido y operado en toda la cadena de valor de la IA, con datos procesados y almacenados localmente en Europa.
Qwen-Image-2.0: generación y edición de imágenes unificadas
10 de febrero — Alibaba lanza Qwen-Image-2.0, un modelo fundacional de generación de imágenes de nueva generación que unifica la generación text-to-image y la edición de imágenes en una sola arquitectura.
Cambios mayores respecto a la v1:
- Arquitectura unificada generación + edición (anteriormente modelos separados)
- Modelo más compacto: 7B parámetros (frente a 20B para la v1)
- Renderizado de texto mejorado con soporte de prompts hasta 1K tokens
- Resolución nativa 2K (2048x2048)
| Benchmark | Qwen-Image-2.0 | FLUX.1 |
|---|---|---|
| DPG-Bench | 88.32 | 83.84 |
| AI Arena (blind eval) | #1 | - |
El modelo sobresale en el renderizado de texto en chino e inglés a través de diferentes formatos: infografías, pósters, caligrafía, señalización. Qwen-Image-2.0 está disponible en prueba API en la plataforma Alibaba Cloud BaiLian y gratuitamente a través de Qwen Chat (chat.qwen.ai).
Deep Research pasa a GPT-5.2
10 de febrero — OpenAI actualiza ChatGPT Deep Research con el modelo GPT-5.2, reemplazando las versiones anteriores o3 y o4-mini. La actualización trae conexiones con apps, búsqueda en sitios específicos y controles en tiempo real.
| Funcionalidad | Detalle |
|---|---|
| Modelo | GPT-5.2 (reemplaza o3 / o4-mini) |
| Conexiones apps | Gmail, Google Calendar, Google Contacts + cualquier MCP |
| Búsqueda dirigida | Restricción a sitios específicos y fuentes de confianza |
| Controles tiempo real | Seguimiento de progreso, interrupción y redirección a mitad de ejecución |
| Plan de investigación | Creable y editable antes del lanzamiento |
| Interfaz | Barra lateral rediseñada + vista de informe a pantalla completa |
| Exportación | PDF y DOCX |
Los usuarios ahora pueden conectar Deep Research a cualquier servidor MCP o aplicación, y restringir las búsquedas web a sitios de confianza para informes más precisos y creíbles. Las apps funcionan en modo solo lectura como fuentes fiables.
El despliegue comenzó el 10 de febrero para usuarios Plus y Pro, con usuarios Free y Go a seguir en los días siguientes.
ChatGPT se une a GenAI.mil del Pentágono
10 de febrero — OpenAI anuncia el despliegue de una versión personalizada de ChatGPT en GenAI.mil, la plataforma de IA empresarial del Departamento de Defensa de EE. UU. ChatGPT se une a Google Gemini (lanzado en diciembre 2025) y xAI Grok (añadido a finales de diciembre 2025) en la plataforma.
| Detalle | Valor |
|---|---|
| Plataforma | GenAI.mil (DoD) |
| Usuarios potenciales | ~3 millones (militares, civiles, contratistas) |
| Usuarios activos plataforma | 1.1 millones únicos desde el lanzamiento |
| Clasificación | Datos no clasificados solamente |
| Infraestructura | Nube gubernamental autorizada |
| Aislamiento datos | Datos aislados, no utilizados para entrenar modelos OpenAI |
Los casos de uso cubren la síntesis y el análisis de documentos de política, la redacción de materiales de adquisición, la generación de informes internos y listas de verificación de cumplimiento, y la asistencia a la investigación y planificación.
ElevenLabs for Government
11 de febrero — ElevenLabs lanza ElevenLabs for Government, una iniciativa dedicada al sector público anunciada en la ElevenLabs Summit en Londres. Esta plataforma ofrece agentes de voz y chat IA diseñados para organizaciones gubernamentales, disponibles 24/7, en múltiples idiomas, por teléfono, chat, correo electrónico y WhatsApp.
La plataforma tiene tres objetivos:
- Accesibilidad e inclusión: agentes omnicanal multilingües capaces de resolver las solicitudes de los ciudadanos al instante
- Eficiencia y productividad: automatización de contactos de alto volumen y reducción de transferencias entre servicios
- Confianza y compromiso: mejora del acceso a comunicaciones alineadas con las políticas públicas
| Despliegue | Detalles |
|---|---|
| República Checa | Líneas directas nacionales de empleo y prestaciones, ~5,000 llamadas/día, 85% de resolución autónoma |
| Ucrania | Gemelo digital de un alto funcionario + servicios públicos, en asociación con el Ministerio de Transformación Digital |
| Midland, Texas (EE. UU.) | Conserje cívico vocal “Jacky”, reducción estimada de 7,000 llamadas perdidas/mes |
La plataforma cuenta con certificación SOC 2 Tipo 2, GDPR, CPRA e HIPAA para cumplir con los requisitos de seguridad del sector público.
Anthropic cubre las subidas de electricidad
11 de febrero — Anthropic anuncia que cubrirá los aumentos de precios de electricidad para los consumidores causados por sus centros de datos. La empresa hace cuatro compromisos concretos:
| Compromiso | Detalle |
|---|---|
| Costes de infraestructura de red | Cobertura del 100% de los costes de conexión a la red |
| Nueva producción de energía | Puesta en servicio de nuevas capacidades de generación adaptadas a las necesidades |
| Reducción de la presión en la red | Inversión en sistemas de reducción de consumo en horas punta |
| Inversión comunitaria | Creación de cientos de empleos permanentes y miles de empleos de construcción |
Anthropic dona 20 millones $ para la regulación de la IA
12 de febrero — Anthropic anuncia una donación de 20 millones de dólares a Public First Action, una nueva organización bipartidista 501(c)(4) estadounidense. El objetivo es movilizar a los ciudadanos y responsables políticos sobre los problemas de la IA en el interés público.
El tweet de Anthropic destaca que la IA está siendo adoptada más rápidamente que cualquier tecnología en la historia, y que la ventana para acertar con las políticas públicas se está cerrando.
Claude Code Desktop: plugins locales y marketplace
11 de febrero — Boris Cherny (líder de Claude Code en Anthropic) publica un hilo detallando lo que a los ingenieros les gusta de Claude Code: su personalización. Enumera hooks, plugins, LSPs, MCPs, skills, esfuerzo, agentes personalizados, líneas de estado, estilos de salida como mecanismos de personalización.
En paralelo, Lydia Hallie anuncia que Claude Code en escritorio ahora soporta plugins locales. Los usuarios pueden instalar comandos slash personalizados, skills y servidores MCP desde el marketplace, con sincronización automática entre escritorio y CLI.
GitHub Mobile: Selector de Modelos para Copilot
11 de febrero — GitHub añade un selector de modelos al Copilot Coding Agent en la aplicación GitHub Mobile, en iOS y Android.
Los usuarios de Copilot Pro y Pro+ ahora pueden elegir el modelo de IA que alimenta sus sesiones de coding agent directamente desde su teléfono, sin tener que pasar por el escritorio.
| Modelo disponible | Editor |
|---|---|
| Auto (predeterminado — optimiza velocidad y rendimiento) | GitHub |
| Claude Opus 4.5 | Anthropic |
| Claude Opus 4.6 | Anthropic |
| Claude Sonnet 4.5 | Anthropic |
| GPT-5.1-Codex-Max | OpenAI |
| GPT-5.2-Codex | OpenAI |
El modo Auto selecciona automáticamente un modelo para optimizar velocidad y rendimiento según la disponibilidad. La funcionalidad está disponible desde ahora para los suscriptores Copilot Pro y Pro+. El soporte Business y Enterprise llegará próximamente. A destacar: GPT-5.3-Codex, hecho GA el 9 de febrero, aún no está en la lista móvil.
GitHub suspende GPT-5.3-Codex (fiabilidad)
10 de febrero — GitHub anuncia la suspensión temporal del despliegue de GPT-5.3-Codex en GitHub Copilot por razones de fiabilidad de la plataforma, solo un día después del anuncio de su disponibilidad general.
El tweet, que cita en respuesta el anuncio del 9 de febrero sobre el GA de GPT-5.3-Codex, generó 357,500 vistas y 1,000 me gusta, atestiguando el impacto en la comunidad de desarrolladores. Varios usuarios reportaron problemas de disponibilidad del servicio en las respuestas.
El hecho de que el modelo aún no figure en la lista del Selector de Modelos Móvil (anunciado el 11 de febrero) podría estar relacionado con esta suspensión.
Manus lanza Project Skills
12 de febrero — Manus (ahora bajo Meta) lanza Project Skills, una funcionalidad que permite crear bibliotecas de habilidades dedicadas por proyecto.
Cada proyecto puede ensamblar un conjunto de skills seleccionadas desde los pools “Team Skills” o las colecciones personales. La idea: transformar una carpeta de proyecto estándar en un espacio de trabajo inteligente y autónomo.
| Funcionalidad | Descripción |
|---|---|
| Bibliotecas por proyecto | Ensamblaje de kits de herramientas personalizados desde los pools de equipo o personales |
| Flujos de trabajo contenidos | Solo las skills explícitamente añadidas al proyecto pueden ser activadas |
| Flujos de trabajo bloqueados | Los administradores pueden bloquear el conjunto de skills para estandarizar los procesos |
Los beneficios destacados: incorporación más rápida, escalado de la experiencia individual a la organización, y construcción de “conocimiento institucional” que mejora con el tiempo. Disponible inmediatamente para todos los usuarios de Manus.
Gemini CLI v0.28.0 + Extension Settings
10-11 de febrero — Google publica la versión 0.28.0 de Gemini CLI y anuncia los Extension Settings, una nueva funcionalidad para simplificar la configuración de las extensiones.
Gemini CLI v0.28.0 (10 de febrero)
| Novedad | Detalle |
|---|---|
Comando /prompt-suggest | Nuevo comando slash para sugerencias de prompts |
| Tema automático | Adaptación basada en el fondo de la terminal |
| Compatibilidad IDE | Soporte añadido para Positron IDE |
| OAuth mejorado | Consentimiento OAuth interactivo y no interactivo |
| Componente Checklist | Componente para la gestión de tareas estructuradas en modo plan |
| Sub-agentes | Registro dinámico de políticas para los sub-agentes |
| Ejecución en segundo plano | Comandos shell en segundo plano |
Extension Settings (11 de febrero)
Las extensiones Gemini CLI ahora pueden definir parámetros de configuración que los usuarios proporcionan en la instalación. Configuración automática con prompts interactivos, seguridad integrada (los datos sensibles como las claves API se almacenan en el llavero del sistema), y gestión centralizada vía gemini extensions config. Las extensiones Data Cloud (BigQuery, Cloud SQL, Firestore, Looker, Spanner) ya implementan esta funcionalidad.
Shopping IA en Google Search y Gemini
11 de febrero — Google anuncia la integración de funcionalidades de compra directamente en sus productos de IA — Search AI Mode y el chatbot Gemini.
Los usuarios ahora pueden comprar artículos de Etsy y Wayfair directamente en el chatbot Gemini. Direct Offers, una nueva funcionalidad en AI Mode, permite a las marcas ofrecer descuentos a los compradores potenciales. Nuevos formatos publicitarios se están probando en AI Mode de Search para los minoristas.
Google está trabajando con Walmart, Target y Shopify en un protocolo de pago que permite a los consumidores finalizar sus compras directamente dentro de los productos de IA de Google.
Informe GTIG: ataques de destilación en Gemini
12 de febrero — El Grupo de Inteligencia de Amenazas de Google (GTIG) publica un informe revelando que Gemini ha sido objetivo de ataques de destilación — intentos de clonación masiva a través de prompts repetidos.
Una campaña envió más de 100,000 prompts a Gemini antes de ser detectada. Los ataques se dirigían específicamente a los algoritmos de razonamiento de Gemini. Los atacantes son principalmente empresas privadas e investigadores que buscan una ventaja competitiva.
Los sistemas de Google detectaron la actividad en tiempo real y ajustaron las protecciones. Google considera la destilación como robo de propiedad intelectual.
Codex CLI v0.99.0: ejecución shell concurrente
11 de febrero — OpenAI publica Codex CLI v0.99.0 con la ejecución shell concurrente, una línea de estado configurable y APIs dedicadas app-server.
| Funcionalidad | Detalle |
|---|---|
| Ejecución shell concurrente | Los comandos shell directos ya no bloquean un turno en curso |
| /statusline | Configuración interactiva de metadatos en el pie de página TUI |
| Selector de reanudación adaptativo | Nuevo selector para reanudar sesiones |
| APIs app-server | APIs dedicadas para la integración de aplicaciones |
| Controles de administración | Controles de administración para búsqueda web y redes |
| Imágenes | Soporte GIF/WebP |
| Snapshotting | Instantáneas de entorno |
| Modo Steer | Estable y activo por defecto (Enter envía, Tab pone en cola) |
El empaquetado npm ha sido reelaborado: los binarios específicos de la plataforma se distribuyen a través de dist-tags @openai/codex, reduciendo el tamaño de los paquetes.
Qwen Chat AI Slides
12 de febrero — Qwen anuncia la próxima llegada de AI Slides en Qwen Chat. La funcionalidad permite convertir diferentes tipos de documentos en presentaciones: project docs → meeting slides, paper → oral deck, product info → sales deck, topic → teaching deck.
La funcionalidad está construida con Qwen Agent + Qwen-Image 2.0 (el modelo de imagen lanzado unos días antes). Chen Cheng demostró la capacidad de transformar artículos académicos en presentaciones orales en pocos minutos, con un agente de búsqueda integrado.
Qué significa esto
La recaudación de fondos de 30 mil millones de dólares de Anthropic a una valoración de 380 mil millones confirma el dominio de los modelos frontier en la economía de la IA. El run-rate de 14 mil millones de dólares anuales y la cuota de 2.5 mil millones generada por Claude Code muestran que el coding asistido por IA se ha convertido en una infraestructura crítica para los desarrolladores y las empresas.
La llegada de GPT-5.3-Codex-Spark en Cerebras marca un punto de inflexión en la diversificación del hardware de IA más allá de NVIDIA. La inferencia a 1000+ tokens/segundo cambia la naturaleza de la interacción con los modelos de código, haciendo posible una colaboración fluida en tiempo real.
Gemini 3 Deep Think con sus medallas de oro en las olimpiadas científicas y su puntuación del 84.6% en ARC-AGI-2 demuestra que los modelos frontier comienzan a alcanzar un nivel de razonamiento científico comparable a los mejores humanos en campos especializados.
La reestructuración de xAI en 4 equipos con Macrohard — con el objetivo de hacer “todo lo que una computadora puede hacer” — y la inversión masiva de Mistral en Europa muestran que la carrera por la infraestructura de IA se acelera a nivel mundial. La suspensión de GPT-5.3-Codex por GitHub recuerda, sin embargo, que la fiabilidad sigue siendo un desafío importante para el despliegue a gran escala.
Fuentes
- Anthropic — Serie G $30B
- Anthropic — Electricidad
- Anthropic — Public First Action
- Anthropic — Plugins Claude Code
- OpenAI — GPT-5.3-Codex-Spark
- OpenAI — Deep Research
- OpenAI — GenAI.mil
- OpenAI — Codex CLI v0.99.0
- Google — Gemini 3 Deep Think
- Google — Shopping IA
- Google — Extensiones Gemini CLI
- Google — Destilación GTIG
- xAI — Reestructuración
- Mistral — Inversión Suecia
- Qwen — Image 2.0
- Qwen — AI Slides
- ElevenLabs — For Government
- GitHub — Mobile Model Picker
- GitHub — Pausa GPT-5.3-Codex
- Manus — Project Skills