Anthropic revisa en profundidad su política de seguridad con una RSP v3.0 que introduce una Frontier Safety Roadmap (hoja de ruta pública de seguridad) y Risk Reports trimestrales con revisión externa. OpenAI pone fin al periodo de acceso limitado de GPT-5.3-Codex, que ahora está disponible para todos los desarrolladores vía la Responses API. Meta firma un acuerdo multianual con AMD por ~6 GW de capacidad GPU dedicada a sus modelos de IA. Qwen lanza cuatro modelos MoE entre los que destaca un 35B-A3B que supera a su propio 235B. Claude Code introduce Remote Control para continuar una sesión desde el teléfono.
Anthropic: Responsible Scaling Policy v3.0
24 de febrero — Anthropic publica la tercera versión de su Responsible Scaling Policy (RSP), el marco voluntario que regula los riesgos catastróficos relacionados con sus modelos.
La RSP original data de septiembre de 2023. En dos años y medio, los modelos han adquirido nuevas capacidades —navegación web, ejecución de código, uso de ordenadores, acciones autónomas multi-pasos— y cada nueva capacidad ha traído nuevos riesgos a gestionar.
Lo que ha funcionado
La RSP empujó a Anthropic a desarrollar salvaguardas más robustas, como clasificadores para bloquear contenido relacionado con armas biológicas requerido para ASL-3. El estándar ASL-3 se activó en mayo de 2025 y está operativo. OpenAI y Google DeepMind adoptaron marcos similares en los meses posteriores al anuncio inicial. Las RSP también han contribuido a informar textos legislativos (SB 53 en California, EU AI Act).
Lo que no ha funcionado
Los umbrales de capacidad resultaron ser más ambiguos de lo previsto —determinar si un modelo ha “definitivamente” cruzado un umbral sigue siendo difícil en la práctica. Los gobiernos no han reaccionado tan rápido como se esperaba, en un contexto político poco favorable a la regulación. Algunos requisitos de los ASL altos (ASL-4, ASL-5) podrían ser imposibles de satisfacer unilateralmente.
Tres cambios clave en RSP v3.0
La v3.0 distingue ahora lo que Anthropic se compromete a hacer de forma independiente respecto a otras entidades, y por otra parte una cartografía capacidades→mitigaciones que la industria en su conjunto debería adoptar.
Un segundo documento publicado en paralelo —la Frontier Safety Roadmap— fija objetivos públicos concretos: iniciar proyectos de I+D “moonshot” para asegurar los pesos de los modelos, desarrollar un red-teaming automatizado que supere a cientos de participantes humanos, establecer registros centralizados de todas las actividades críticas de desarrollo de IA.
Finalmente, Anthropic se compromete a publicar Risk Reports cada 3 a 6 meses: perfil de seguridad de los modelos, articulación capacidades/amenazas/mitigaciones, y para los modelos más avanzados, una revisión por expertos independientes con acceso no censurado al informe.
“We’re updating our Responsible Scaling Policy to its third version. Since it came into effect in 2023, we’ve learned a lot about the RSP’s benefits and its shortcomings. This update improves the policy, reinforcing what worked and committing us to even greater transparency.”
🇪🇸 Actualizamos nuestra Responsible Scaling Policy a su tercera versión. Desde su entrada en vigor en 2023, hemos aprendido mucho sobre sus puntos fuertes y sus limitaciones. Esta actualización mejora la política reforzando lo que ha funcionado y comprometiéndonos con aún más transparencia. — @AnthropicAI en X
OpenAI: GPT-5.3-Codex en disponibilidad general
24 de febrero — GPT-5.3-Codex ya está accesible para todos los desarrolladores vía la Responses API de OpenAI. El modelo se lanzó a principios de febrero en acceso limitado; ahora pasa a disponibilidad general.
GPT-5.3-Codex combina rendimiento de codificación de vanguardia y capacidades de conocimiento profesional en un solo modelo. Según los primeros integradores, sería “significativamente más potente y 3 a 4 veces más eficiente en tokens que GPT-5.2”. La plataforma Lovable fue de las primeras en adoptarlo para sus casos de uso más complejos.
El modelo también está disponible vía OpenRouter para desarrolladores que deseen integrarlo en sus flujos sin pasar por la API de OpenAI directamente.
| Elemento | Detalle |
|---|---|
| Disponibilidad | Responses API (acceso general) |
| Eficiencia | 3-4x más eficiente en tokens vs GPT-5.2 |
| Acceso alternativo | OpenRouter |
Meta + AMD: acuerdo multianual por ~6 GW de GPU
24 de febrero — Meta anuncia una asociación multianual con AMD para integrar las últimas GPU AMD Instinct en su infraestructura global.
El despliegue contempla alrededor de 6 GW de capacidad de centro de datos dedicada, con el objetivo de desarrollar modelos de IA de vanguardia y llevar una “inteligencia artificial personal superinteligente” a miles de millones de usuarios en el mundo.
“Today we’re announcing a multi-year agreement with @AMD to integrate their latest Instinct GPUs into our global infrastructure. With approximately 6GW of planned data center capacity dedicated to this deployment, we’re scaling our compute capacity to accelerate the development of cutting-edge AI models and deliver personal superintelligence to billions around the world.”
🇪🇸 Hoy anunciamos un acuerdo multianual con @AMD para integrar sus últimas GPU Instinct en nuestra infraestructura global. Con aproximadamente 6 GW de capacidad de centro de datos planificada para este despliegue, incrementamos nuestra capacidad de cómputo para acelerar el desarrollo de modelos de IA de vanguardia y llevar una superinteligencia personal a miles de millones de personas en el mundo. — @AIatMeta en X
Este acuerdo marca una diversificación significativa de proveedores de GPU para Meta, que hasta ahora se apoyaba principalmente en NVIDIA. Un contrato de esta magnitud —6 GW, es decir una infraestructura considerable para una sola asociación— es una señal clara de las ambiciones de Meta respecto al cómputo para modelos de próxima generación.
Qwen 3.5 Medium Series: 4 modelos MoE, “More intelligence, less compute”
24 de febrero — Alibaba Qwen lanza la serie Qwen 3.5 Medium, que incluye cuatro modelos con arquitectura MoE (Mixture of Experts).
El resultado más llamativo es el Qwen3.5-35B-A3B: con solo 3B parámetros activos (de 35B en total), supera a Qwen3-235B-A22B —el gigante anterior de la familia. La arquitectura MoE y un entrenamiento RL a gran escala permiten esta densidad de eficiencia.
| Modelo | Parámetros activos | Nota |
|---|---|---|
| Qwen3.5-Flash | — | Contexto 1M tokens, herramientas integradas, alojado |
| Qwen3.5-35B-A3B | 3B activos / 35B total | Supera a Qwen3-235B-A22B |
| Qwen3.5-122B-A10B | 10B activos / 122B total | — |
| Qwen3.5-27B | 27B | — |
Qwen3.5-Flash es la versión alojada de la serie, con un contexto por defecto de un millón de tokens y herramientas integradas. Los modelos están disponibles en HuggingFace, ModelScope y Qwen Chat.
Claude Code v2.1.51: Remote Control desde móvil
24 de febrero — Claude Code v2.1.51 introduce remote-control, la característica más esperada de la versión: continuar una sesión local desde el teléfono.
Iniciada desde el terminal, una sesión Claude Code puede retomarse en la app móvil Claude Code vía /remote-control. La funcionalidad está disponible para usuarios Max en research preview.
Más allá del Remote Control, esta versión aporta varias mejoras técnicas:
| Cambio | Detalle |
|---|---|
| Plugin marketplace timeout | Git: 30s → 120s, configurable vía CLAUDE_CODE_PLUGIN_GIT_TIMEOUT_MS |
| npm registries | Soporte para registros personalizados y pinning de versión para plugins |
| BashTool | Omitir login shell por defecto cuando hay snapshot disponible |
| Hooks de seguridad | Fix: statusLine y fileSuggestion hooks sin aceptación de workspace trust |
| Reducción de contexto | Tool results > 50K chars persistidos en disco (antes 100K) |
Claude Cowork: marketplace privado de plugins y orquestación cross-apps
24 de febrero — Anthropic lanza una actualización mayor de Cowork con marketplaces privados de plugins para empresas, nuevos conectores y orquestación cross-aplicaciones.
Los administradores pueden ahora crear marketplaces de plugins privados para su organización: creación desde plantillas o desde cero, con Claude guiando la configuración. Un nuevo menú unificado “Customize” centraliza plugins, skills y conectores (MCP). Los admins disponen también de aprovisionamiento por usuario, auto-instalación y fuentes de plugins desde repos GitHub privados (en beta privada).
En cuanto a conectores, la lista se amplía con Google Workspace (Calendar, Drive, Gmail), Docusign, Apollo, Clay, Outreach, Similarweb, MSCI, LegalZoom, FactSet, WordPress y Harvey. Empresas como Slack, LSEG, S&P Global y Tribe AI también han publicado plugins.
Nuevas plantillas de plugins por departamento están disponibles:
| Departamento | Ejemplos de flujos de trabajo |
|---|---|
| RR. HH. | Cartas de oferta, onboarding, evaluaciones de rendimiento |
| Diseño | Críticas UX, auditorías de accesibilidad, planes de investigación de usuarios |
| Ingeniería | Standups, incident response, checklists de deploy, postmortems |
| Operaciones | Documentación de procesos, evaluación de proveedores |
| Finanzas | Análisis de mercado, modelización financiera, diapositivas PowerPoint |
| Investment Banking | Documentos de transacción, análisis comparables |
| Private Equity | Due diligence, scoring por criterios de inversión |
Claude puede ahora también orquestar tareas entre Excel y PowerPoint — analizar datos en Excel y luego generar una presentación en PowerPoint, pasando el contexto de un add-in a otro. Esta funcionalidad está disponible en research preview para todos los planes de pago en Mac y Windows.
Finalmente, el soporte OpenTelemetry permite a los administradores seguir el uso, los costes y la actividad de las herramientas por equipo.
🔗 Blog: Marketplaces de plugins Cowork para empresas 🔗 Tuit @claudeai
OpenAI: Codex CLI v0.99.0
24 de febrero — Codex CLI llega a la versión 0.99.0 con varias nuevas funcionalidades.
El comando /statusline permite ahora personalizar los metadatos mostrados en el footer de la interfaz TUI. Se aceptan imágenes GIF y WebP como adjuntos. La ejecución de comandos shell directos ya no bloquea un turno en curso — pueden ejecutarse en concurrencia. El snapshot del entorno shell y de los archivos de configuración rc está ahora activado.
| Feature | Detalle |
|---|---|
/statusline | Configurar el footer TUI interactivamente |
| Imágenes GIF/WebP | Nuevos formatos aceptados como adjuntos |
| Shell snapshot | Snapshot del entorno shell y archivos rc |
| App-server APIs | Turn/steer, feature discovery, resume_agent |
| Control de búsqueda web | Modos restringidos vía requirements.toml (Enterprise) |
También se incluye una corrección de seguridad (RUSTSEC-2026-0009).
npm install -g @openai/codex@0.99.0
DeepSeek-V3.2: versión oficial
24 de febrero — DeepSeek anuncia la versión oficial de DeepSeek-V3.2, sucesora de la versión experimental V3.2-Exp de noviembre de 2025.
Según el banner de la homepage deepseek.com, la V3.2 refuerza las capacidades Agent e integra razonamiento reflexivo (thinking/reasoning). La versión está disponible en web, app móvil y API. El detalle técnico completo se publica en WeChat (canal principal de anuncios de DeepSeek en chino).
Perplexity y Comet: modo vocal para todos
24 de febrero — Perplexity despliega una actualización significativa de su modo vocal en Perplexity y en su navegador Comet, disponible para todos los usuarios —no solo suscriptores.
El nuevo modo vocal de Comet permite interrogar a la IA sobre lo que se muestra en pantalla, navegar entre sitios web por voz y mantener una conversación coherente en varias pestañas sin perder el contexto. Esta persistencia contextual multi-pestañas es un avance respecto a los asistentes vocales clásicos.
| Aspecto | Detalle |
|---|---|
| Disponibilidad | Todos los usuarios (no solo suscriptores) |
| Plataformas | Android, Mac, Windows |
| Funcionalidad clave | Navegación vocal multi-pestañas con contexto persistente |
🔗 Tuit @perplexity_ai 🔗 Tuit @comet
Google DeepMind: Music AI Sandbox × Wyclef Jean
24 de febrero — Google DeepMind y YouTube presentan una colaboración con el productor y artista Wyclef Jean en torno a Music AI Sandbox.
Music AI Sandbox —impulsado por Lyria 3, el modelo de generación musical anunciado el 18 de febrero— permite a músicos profesionales experimentar con la IA como socio creativo. Wyclef Jean ha utilizado estas herramientas para desarrollar su canción “Back from Abu Dhabi”. El proceso de creación está documentado en un vídeo disponible en YouTube.
Esta colaboración forma parte de una serie de asociaciones con artistas iniciada por Google DeepMind para explorar los usos creativos de la IA musical en condiciones reales de estudio.
🔗 Tuit @GoogleAI 🔗 Tuit @GoogleDeepMind
Google DeepMind: Robotics Accelerator en Europa
24 de febrero — Google DeepMind anuncia el lanzamiento de su Robotics Accelerator en Europa, un programa dedicado a startups del sector de la robótica.
El objetivo declarado es cerrar la brecha entre la tecnología y las salidas comerciales, y acelerar la próxima generación de agentes físicos. El programa se presenta como hecho a medida para startups, con acceso a recursos y a la experiencia de Google DeepMind.
NVIDIA + Red Hat: AI Factory para la empresa
24 de febrero — Red Hat y NVIDIA anuncian conjuntamente el Red Hat AI Factory with NVIDIA, una solución combinada para acelerar la adopción de la IA en la empresa.
La plataforma reúne Red Hat AI Enterprise (orquestación y despliegue de modelos) con NVIDIA AI Enterprise (capa de software optimizada para GPU NVIDIA). El objetivo es reducir la complejidad operativa y el coste total de propiedad para las organizaciones que despliegan aplicaciones IA en producción.
Black Forest Labs: Safety Evaluation — 10x menos vulnerabilidades
24 de febrero — Black Forest Labs publica los resultados de una evaluación externa independiente de riesgos emergentes para sus modelos FLUX.
Los resultados muestran más de 10x menos vulnerabilidades que otros modelos de imagen open-weight populares. BFL afirma que alto rendimiento, innovación abierta y salvaguardas pueden ir de la mano — un enfoque de transparencia poco común en la industria de modelos de imagen de código abierto.
En breve
Claude Code v2.1.52 — parche específico publicado tras la v2.1.51: corrige un bloqueo de la extensión VS Code en Windows (command 'claude-vscode.editor.openLast' not found). Ninguna nueva funcionalidad.
GitHub Copilot SDK — agente para PowerPoint — GitHub comparte una demo (23 de febrero) que muestra cómo construir un agente con el Copilot SDK capaz de buscar la documentación más reciente, analizar diapositivas existentes para reproducir su estilo y generar nuevas diapositivas directamente en PowerPoint. 🔗 Tuit @github
Runway — Interior Designer — Runway presenta un caso de uso creativo: transformar una foto de una habitación en un diseño de interiores personalizado mediante una combinación de Nano Banana Pro, Kling 3.0 y Gen-4.5. Una demo de marketing que ilustra la plataforma multimodelo lanzada el 20 de febrero. 🔗 Tuit @runwayml
Lo que significa
La RSP v3.0 de Anthropic marca un giro en el enfoque de seguridad en IA: al hacer públicos sus objetivos mediante la Frontier Safety Roadmap y comprometerse con Risk Reports sometidos a revisión externa, Anthropic pasa de una política interna a un mecanismo de responsabilidad pública. Es una presión suave sobre toda la industria — y una respuesta implícita a las críticas sobre la opacidad de las decisiones de despliegue.
El acuerdo Meta+AMD por 6 GW es una señal de alarma para NVIDIA: el único proveedor de GPU usado hasta ahora por Meta comienza a ser rivalizado abiertamente. Para AMD, es una validación a gran escala de sus GPU Instinct, que aún luchan por imponerse frente a las H100/H200 en las cargas de trabajo de entrenamiento.
Qwen 3.5 Medium confirma que la arquitectura MoE ya no es patrimonio exclusivo de los modelos muy grandes: un 35B-A3B que supera a un 235B es una compresión de inteligencia notable, accesible para quienes no tienen la infraestructura para hacer funcionar a los gigantes.
Fuentes
- RSP v3.0 — Anthropic
- Tuit @AnthropicAI — RSP v3.0
- Tuit @OpenAIDevs — GPT-5.3-Codex GA
- Tuit @OpenAIDevs — Lovable + OpenRouter
- Tuit @AIatMeta — Meta + AMD
- Tuit @Alibaba_Qwen — Qwen 3.5 Medium
- Tuit @noahzweben — Claude Code Remote Control
- Registro de cambios Claude Code
- Blog Cowork: plugins en la empresa
- Tuit @claudeai — Cowork
- Registro de cambios Codex CLI v0.99.0
- deepseek.com — banner V3.2
- Tuit @perplexity_ai — modo de voz
- Tuit @comet — modo de voz
- Tuit @GoogleAI — Music AI Sandbox × Wyclef Jean
- Tuit @GoogleDeepMind — Music AI Sandbox
- Tuit @GoogleDeepMind — Robotics Accelerator
- Tuit @NVIDIAAI — Red Hat AI Factory
- Tuit @RedHat — Red Hat AI Factory
- Tuit @bfl_ml — Evaluación de seguridad
- Tuit @github — Copilot SDK PowerPoint
- Tuit @runwayml — Interior Designer
Este documento ha sido traducido de la versión fr al idioma es utilizando el modelo gpt-5-mini. Para más información sobre el proceso de traducción, consulte https://gitlab.com/jls42/ai-powered-markdown-translator