El fin de febrero de 2026 cierra marcado por las fricciones entre los grandes labs de IA y el Departamento de la Guerra estadounidense: OpenAI firma un acuerdo clasificado con el Pentágono con tres líneas rojas, mientras Anthropic rechaza las mismas concesiones y amenaza con recurrir a la justicia. En el frente técnico, Claude Code v2.1.63 es la actualización más sustancial en semanas, y la memoria de Claude finalmente se abre a los usuarios gratuitos.
Claude Code v2.1.63: /simplify, HTTP hooks y ola de correcciones de memoria
28 de febrero de 2026 — La versión 2.1.63 de Claude Code es la más completa en varias semanas. Combina nuevas funciones para desarrolladores y una gran ola de correcciones de fugas de memoria — ocho en total.
Nuevas funcionalidades
| Funcionalidad | Descripción |
|---|---|
/simplify et /batch | Dos nuevos slash commands incluidos en la instalación por defecto |
| HTTP hooks | Los hooks ahora pueden enviar JSON a una URL externa (POST) y recibir JSON de vuelta, en lugar de ejecutar únicamente un comando shell |
| Project configs & auto memory | Compartidas entre todos los git worktrees del mismo repositorio |
ENABLE_CLAUDEAI_MCP_SERVERS=false | Nueva variable de entorno para desactivar los servidores MCP claude.ai |
/model mejorado | Ahora muestra el modelo activo en el menú de slash commands |
/copy “Always copy full response” | Opción para copiar directamente la respuesta completa sin pasar por el picker |
| VSCode — gestión de sesiones | Acciones rename y remove disponibles en la lista de sesiones |
| MCP OAuth — URL paste fallback | Si el redirect localhost falla, la URL de callback puede pegarse manualmente |
La incorporación de los HTTP hooks es especialmente notable: permite integrar Claude Code en flujos de trabajo de automatización externos (CI, webhooks, sistemas de notificación) sin pasar por scripts shell intermedios.
Correcciones de fugas de memoria (8 fixes)
Una ola de 8 correcciones apunta a las acumulaciones de memoria en sesiones largas:
- Bridge polling loop, MCP OAuth flow, menú de configuración de hooks, cache del prefijo de comandos bash
- MCP tool/resource cache, detección de IP del host IDE, WebSocket listener, detección del git root
- Mensajes de teammates liberados tras la compactación de la conversación
- MCP server fetch caches limpiados al desconectar
- Subagents: payloads de progreso aligerados durante la compactación
Para los equipos que usan Claude Code como orquestador multi-agente o en sesiones largas, estas correcciones deberían reducir sensiblemente el consumo de memoria a largo plazo.
Otras correcciones
- VSCode: sesiones remotas ausentes del historial de conversación — corregido
- Race condition en el REPL bridge (mensajes entrantes intercalados con el historial)
/clear: skills ocultos obsoletos que persistían en la nueva conversación
OpenAI × Anthropic frente al Departamento de la Guerra — Dos enfoques, un mismo rechazo
OpenAI firma un acuerdo clasificado con el Pentágono
28 de febrero de 2026 — OpenAI ha cerrado un acuerdo con el Departamento de la Guerra (antes Defensa) para desplegar sistemas de IA en entornos clasificados. La compañía afirma que este acuerdo impone más salvaguardas que cualquier despliegue de IA clasificado previo.
OpenAI define tres líneas rojas no negociables:
| Línea roja | Descripción |
|---|---|
| No a la vigilancia masiva | Prohibido usar para vigilar a ciudadanos estadounidenses a gran escala |
| No a armas autónomas | Claude no puede dirigir armas sin supervisión humana |
| No a decisiones automatizadas de alto impacto | Supervisión humana obligatoria en todas las decisiones críticas |
La arquitectura de despliegue es únicamente cloud (no edge/on-premise), con la pila de seguridad de OpenAI intacta. Ingenieros de OpenAI con habilitación de secreto de defensa estarán presentes in situ. No se proporciona ningún modelo “sin salvaguardas”.
El contrato estipula explícitamente que el sistema de IA no puede dirigir armas autónomas en los casos en que la ley, la normativa o la política del Departamento exijan control humano — conforme a la Directiva DoD 3000.09 (25 de enero de 2023).
Posición sobre Anthropic: OpenAI declara explícitamente que Anthropic no debería ser designada como “riesgo para la cadena de suministro” y ha comunicado esta posición al gobierno. La compañía ha pedido que los mismos términos contractuales se ofrezcan a todos los labs de IA.
🔗 Nuestro acuerdo con el Department of War
Anthropic rechaza las mismas concesiones y amenaza con ir a los tribunales
27 de febrero de 2026 — El Secretario de la Guerra Pete Hegseth anunció en X su intención de designar a Anthropic como riesgo en la cadena de suministro (supply chain risk). Anthropic respondió el mismo día con un comunicado oficial, distinto del comunicado de Dario Amodei publicado la víspera.
El comunicado explica las razones del estancamiento: Anthropic había pedido dos excepciones al uso de Claude por parte del Departamento de la Guerra — la vigilancia doméstica masiva de estadounidenses, y las armas totalmente autónomas. Estas dos excepciones no fueron aceptadas.
“No amount of intimidation or punishment from the Department of War will change our position on mass domestic surveillance or fully autonomous weapons. We will challenge any supply chain risk designation in court.”
🇪🇸 Ninguna intimidación ni castigo por parte del Departamento de la Guerra cambiará nuestra posición sobre la vigilancia doméstica masiva o las armas totalmente autónomas. Impugnaremos cualquier designación de riesgo en la cadena de suministro ante los tribunales. — @AnthropicAI en X
Anthropic precisa el impacto real para sus clientes:
| Segmento | Impacto |
|---|---|
| Usuarios individuales y API | Acceso a Claude totalmente sin cambios |
| Contratistas DoW | Solo el uso en el marco de contratos DoW se vería afectado — no otros usos |
🔗 Comunicado Anthropic (anthropic.com)
Memory Claude gratuita + importación desde otros proveedores de IA
2 de marzo de 2026 — Claude anuncia que la funcionalidad Memory ya está disponible para todos los usuarios, incluido el plan gratuito.
“Memory is now available on the free plan. We’ve also made it easier to import saved memories into Claude. You can export them whenever you want.”
🇪🇸 La memoria ya está disponible en el plan gratuito. También hemos facilitado la importación de recuerdos guardados en Claude. Puedes exportarlos cuando quieras. — @claudeai en X
La nueva función de importación permite transferir el contexto memorizado desde otros asistentes de IA a Claude — ChatGPT, Gemini u otro. La interfaz ofrece un botón “Start import” con la indicación “Bring relevant context and data from another AI provider to Claude.”
Para empezar: Settings → Memory.
Qwen 3.5 Small Series — cuatro modelos compactos open-weight
2 de marzo de 2026 — Alibaba/Qwen completa su gama Qwen3.5 con cuatro modelos compactos open-weight: Qwen3.5-0.8B, Qwen3.5-2B, Qwen3.5-4B y Qwen3.5-9B.
Estos modelos comparten la misma arquitectura que los grandes modelos Qwen3.5 — multimodal nativa, entrenamiento mediante aprendizaje por refuerzo (Reinforcement Learning) a escala — en formatos adaptados a distintos contextos:
| Modelo | Uso objetivo |
|---|---|
| Qwen3.5-0.8B | Dispositivos edge, latencia ultra-baja |
| Qwen3.5-2B | Despliegues embebidos, ligero y rápido |
| Qwen3.5-4B | Base multimodal para agentes ligeros |
| Qwen3.5-9B | Compacto pero compite con modelos mucho más grandes |
Los modelos Base también se publican para permitir el fine-tuning por parte de la comunidad de investigación. El anuncio reunió 1,6 millones de visualizaciones en X el primer día.
🔗 Qwen 3.5 Small Series en Hugging Face 🔗 Tweet @Alibaba_Qwen
Gemini CLI v0.31.0: agent browser, Gemini 3.1 Pro, Policy Engine
27 de febrero de 2026 — Gemini CLI llega a la versión 0.31.0 con cuatro aportes principales.
| Funcionalidad | Descripción |
|---|---|
| Gemini 3.1 Pro Preview | Acceso al modelo más reciente de Google directamente desde la terminal |
| Agent browser experimental | Interactúa con páginas web sin configuración adicional |
| Policy Engine — proyecto | Políticas a nivel de proyecto, wildcards MCP, filtrado por anotaciones de herramientas |
| Web fetch directo | Modo experimental con rate limiting integrado |
El agent browser abre la puerta a flujos de trabajo de automatización web desde la CLI — scraping, tests, interacciones con interfaces no-API. Es una función experimental, por lo que debe usarse con precaución en entornos de producción.
🔗 Registro de cambios de Gemini CLI
GitHub Copilot: deprecación de Gemini 3 Pro y de los modelos GPT-5.1
2 de marzo de 2026 — GitHub anunció la próxima deprecación de varios modelos en todas las experiencias Copilot (Chat, inline edits, modos ask/agent, code completions).
| Modelo | Fecha de deprecación | Alternativa sugerida |
|---|---|---|
| Gemini 3 Pro | 26 de marzo de 2026 | Gemini 3.1 Pro |
| GPT-5.1 | 1 de abril de 2026 | GPT-5.3-Codex |
| GPT-5.1-Codex | 1 de abril de 2026 | GPT-5.3-Codex |
| GPT-5.1-Codex-Mini | 1 de abril de 2026 | GPT-5.3-Codex |
| GPT-5.1-Codex-Max | 1 de abril de 2026 | GPT-5.3-Codex |
La deprecación adelantada de Gemini 3 Pro al 26 de marzo (en lugar de una fecha posterior) se justifica por una deprecación por parte de Google. Los admins de Copilot Enterprise deben verificar sus policies de modelos en la configuración de Copilot y activar las alternativas antes de esas fechas.
Las métricas de Copilot también incluyen ahora la telemetría del modo Plan — disponible en JetBrains, Eclipse, Xcode y VS Code Insiders, con release general en VS Code prevista próximamente.
🔗 GitHub Changelog — deprecación de modelos 🔗 Métricas de Copilot — modo Plan
NVIDIA Nemotron LTM 30B y Blueprints telecom para MWC Barcelona
28 de febrero de 2026 — Antes del Mobile World Congress Barcelona (2–5 de marzo de 2026), NVIDIA lanzó dos anuncios relacionados con la IA en telecomunicaciones.
Nemotron LTM 30B es un modelo open source de 30 mil millones de parámetros desarrollado con AdaptKey AI, basado en NVIDIA Nemotron 3 y fine-tuneado con datos telecom abiertos (estándares industriales y logs sintéticos). Es la primera vez que NVIDIA publica un Large Telco Model open source dedicado al sector.
Dos nuevos NVIDIA Blueprints acompañan este lanzamiento:
| Blueprint | Socio | Uso |
|---|---|---|
| Energy saving RAN | VIAVI TeraVM | Optimización energética de redes radio |
| Network configuration multi-agent | Tech Mahindra | Razonamiento como ingenieros NOC |
Entre los primeros adoptantes: Cassava Technologies (África), NTT DATA (Japón), Telenor Maritime. Los modelos se publican a través de la iniciativa GSMA Open Telco AI.
El informe State of AI in Telecom 2026 publicado el 27 de febrero concluye que la automatización de red es el caso de uso IA nº 1 para el retorno de inversión en las telecomunicaciones.
Runway: nuevo co-CEO y cuatro nombramientos en el C-suite
26 de febrero de 2026 — Runway anunció cambios en su liderazgo. Anastasis Germanidis, cofundador de la compañía, se convierte en co-CEO junto a Cristóbal Valenzuela.
Cuatro nuevos nombramientos en el C-suite:
| Rol | Persona |
|---|---|
| CTO | Kamil Sindi |
| COO | Michelle Kwon |
| CPO | Anna Chalon |
| CCO | Jamie Umpherson |
Runway describe estos nombramientos como la formalización de una estructura ya existente, alineada con su visión de “world simulation”.
Breves
Midjourney: Moodboards y Personalization en Niji V7
26 de febrero — Midjourney añadió Moodboards y Personalization al modelo Niji V7 (especializado en anime/ilustración). Las web rooms se eliminan progresivamente en favor de próximas herramientas de colaboración.
Genspark: Nano Banana 2 gratis + Workspace 3.0 en camino
27 de febrero / 2 de marzo — Nano Banana 2 (generador de imágenes IA) ya está disponible en el AI Image Agent de Genspark, gratis para todos los usuarios (ilimitado para suscriptores Plus y Pro). Además, el CEO Eric Jing anunció Genspark Workspace 3.0 para la semana del 9 de marzo — tercera versión mayor tras Workspace 1.0 (nov. 2025) y 2.0 (ene. 2026).
🔗 Tweet Genspark Workspace 3.0
Perplexity organiza “Ask”, su primera conferencia para desarrolladores
27 de febrero — Perplexity anunció “Ask”, su primera conferencia para desarrolladores, prevista para el 11 de marzo de 2026 en San Francisco. Inscripción en events.perplexity.ai/ask2026. Contexto: Perplexity indica que sus APIs alcanzan cientos de millones de dispositivos Samsung y son usadas por 6 de las 7 “Magnificent Seven”.
Stargate Texas: las primeras vigas de acero
27 de febrero — Greg Brockman (@gdb) compartió una actualización visual sobre la obra Stargate en Milam County, Texas: se colocaron las primeras vigas de acero en el sitio, en colaboración con SoftBank y SBEnergy.
ChatGPT: contacto de confianza para situaciones de angustia
27 de febrero — OpenAI anunció una función “Trusted Contact” para ChatGPT: los usuarios adultos podrán designar un contacto que recibirá notificaciones si el usuario parece necesitar apoyo. Desarrollada con el “Council on Well-Being and AI” y el “Global Physicians Network”. Paralelamente, un tribunal de California consolidó varios casos relacionados con salud mental que involucran a ChatGPT en un solo procedimiento.
🔗 Actualización sobre salud mental OpenAI
Google AI: rediseño de Flow, Opal, producer.ai, Gemini K-12
27 de febrero — Google anunció varios elementos en su resumen semanal @GoogleAI: Flow by Google (herramienta de creación de vídeo) recibió un rediseño mayor con el objetivo de convertirse en un estudio creativo IA completo. Opal (Google Labs) introduce un “agent step” para transformar flujos de trabajo estáticos en experiencias interactivas. producer.ai se unió oficialmente a Google Labs. La formación Gemini ya está disponible para los 6 millones de docentes K-12 y de educación superior en Estados Unidos. 🔗 Resumen @GoogleAI
Adelanto de @OpenAIDevs “Soon.”
2 de marzo — @OpenAIDevs publicó un adelanto con una imagen de Windows XP y la única palabra “Soon.” — 179.000 visualizaciones. No hay más detalles disponibles.
Qué significa esto
La confrontación OpenAI/Anthropic con el Departamento de Guerra revela una divergencia de estrategia más que de valores: los dos labs trazan líneas rojas similares (vigilancia masiva, armas autónomas), pero OpenAI negoció un acuerdo con salvaguardas contractuales, mientras que Anthropic se negó a firmar sin garantías aceptadas. La postura pública de OpenAI a favor de Anthropic complica el panorama — ambos labs parecen coordinados en los principios, aunque sus trayectorias comerciales divergen.
Claude Code v2.1.63 confirma el rápido ritmo de Anthropic en las herramientas CLI: los HTTP hooks amplían concretamente las integraciones posibles, y la oleada de correcciones de memoria atestigua un esfuerzo serio de estabilización para los workflows de larga duración. La memoria gratuita, por su parte, posiciona a Claude en la competencia directa con ChatGPT en el mercado de consumo.
En cuanto a los modelos, Qwen continúa su estrategia de ocupación de gama: tras los grandes modelos MoE de mediados de febrero, la serie Small 0.8B–9B apunta al edge y a los agentes ligeros — un segmento aún poco cubierto por los labs occidentales en open-weight.
Fuentes
- CHANGELOG Claude Code — GitHub
- Declaración de Anthropic — riesgo en la cadena de suministro
- @AnthropicAI en X
- OpenAI — Nuestro acuerdo con el Departamento de Guerra
- @OpenAI en X
- Memoria Claude gratuita — @claudeai en X
- Qwen 3.5 Small Series — @Alibaba_Qwen en X
- Qwen 3.5 Small en Hugging Face
- Changelog Gemini CLI v0.31.0
- GitHub Changelog — deprecación de Gemini 3 Pro y GPT-5.1
- GitHub Changelog — Copilot metrics Plan mode
- NVIDIA Nemotron LTM 30B y Blueprints telecom
- Runway — nuevo liderazgo
- @midjourney — Niji V7 Moodboards
- Genspark Workspace 3.0 — @genspark_ai en X
- Perplexity Ask — @perplexity_ai en X
- Stargate Texas — @gdb en X
- OpenAI — actualización sobre la salud mental de ChatGPT
- @GoogleAI resumen semanal 27 de febrero
- Adelanto @OpenAIDevs “Soon.”
Este documento ha sido traducido de la versión fr a la lengua es utilizando el modelo gpt-5-mini. Para más información sobre el proceso de traducción, consulte https://gitlab.com/jls42/ai-powered-markdown-translator