Buscar

RSP v3.0 en Anthropic, GPT-5.3-Codex disponible para todos, Meta firma 6 GW de GPU con AMD

RSP v3.0 en Anthropic, GPT-5.3-Codex disponible para todos, Meta firma 6 GW de GPU con AMD

Anthropic revisa en profundidad su política de seguridad con una RSP v3.0 que introduce una Frontier Safety Roadmap (hoja de ruta pública de seguridad) y Risk Reports trimestrales con revisión externa. OpenAI pone fin al periodo de acceso limitado de GPT-5.3-Codex, que ahora está disponible para todos los desarrolladores vía la Responses API. Meta firma un acuerdo multianual con AMD por ~6 GW de capacidad GPU dedicada a sus modelos de IA. Qwen lanza cuatro modelos MoE entre los que destaca un 35B-A3B que supera a su propio 235B. Claude Code introduce Remote Control para continuar una sesión desde el teléfono.


Anthropic: Responsible Scaling Policy v3.0

24 de febrero — Anthropic publica la tercera versión de su Responsible Scaling Policy (RSP), el marco voluntario que regula los riesgos catastróficos relacionados con sus modelos.

La RSP original data de septiembre de 2023. En dos años y medio, los modelos han adquirido nuevas capacidades —navegación web, ejecución de código, uso de ordenadores, acciones autónomas multi-pasos— y cada nueva capacidad ha traído nuevos riesgos a gestionar.

Lo que ha funcionado

La RSP empujó a Anthropic a desarrollar salvaguardas más robustas, como clasificadores para bloquear contenido relacionado con armas biológicas requerido para ASL-3. El estándar ASL-3 se activó en mayo de 2025 y está operativo. OpenAI y Google DeepMind adoptaron marcos similares en los meses posteriores al anuncio inicial. Las RSP también han contribuido a informar textos legislativos (SB 53 en California, EU AI Act).

Lo que no ha funcionado

Los umbrales de capacidad resultaron ser más ambiguos de lo previsto —determinar si un modelo ha “definitivamente” cruzado un umbral sigue siendo difícil en la práctica. Los gobiernos no han reaccionado tan rápido como se esperaba, en un contexto político poco favorable a la regulación. Algunos requisitos de los ASL altos (ASL-4, ASL-5) podrían ser imposibles de satisfacer unilateralmente.

Tres cambios clave en RSP v3.0

La v3.0 distingue ahora lo que Anthropic se compromete a hacer de forma independiente respecto a otras entidades, y por otra parte una cartografía capacidades→mitigaciones que la industria en su conjunto debería adoptar.

Un segundo documento publicado en paralelo —la Frontier Safety Roadmap— fija objetivos públicos concretos: iniciar proyectos de I+D “moonshot” para asegurar los pesos de los modelos, desarrollar un red-teaming automatizado que supere a cientos de participantes humanos, establecer registros centralizados de todas las actividades críticas de desarrollo de IA.

Finalmente, Anthropic se compromete a publicar Risk Reports cada 3 a 6 meses: perfil de seguridad de los modelos, articulación capacidades/amenazas/mitigaciones, y para los modelos más avanzados, una revisión por expertos independientes con acceso no censurado al informe.

“We’re updating our Responsible Scaling Policy to its third version. Since it came into effect in 2023, we’ve learned a lot about the RSP’s benefits and its shortcomings. This update improves the policy, reinforcing what worked and committing us to even greater transparency.”

🇪🇸 Actualizamos nuestra Responsible Scaling Policy a su tercera versión. Desde su entrada en vigor en 2023, hemos aprendido mucho sobre sus puntos fuertes y sus limitaciones. Esta actualización mejora la política reforzando lo que ha funcionado y comprometiéndonos con aún más transparencia.@AnthropicAI en X

🔗 RSP v3.0 (Anthropic)


OpenAI: GPT-5.3-Codex en disponibilidad general

24 de febrero — GPT-5.3-Codex ya está accesible para todos los desarrolladores vía la Responses API de OpenAI. El modelo se lanzó a principios de febrero en acceso limitado; ahora pasa a disponibilidad general.

GPT-5.3-Codex combina rendimiento de codificación de vanguardia y capacidades de conocimiento profesional en un solo modelo. Según los primeros integradores, sería “significativamente más potente y 3 a 4 veces más eficiente en tokens que GPT-5.2”. La plataforma Lovable fue de las primeras en adoptarlo para sus casos de uso más complejos.

El modelo también está disponible vía OpenRouter para desarrolladores que deseen integrarlo en sus flujos sin pasar por la API de OpenAI directamente.

ElementoDetalle
DisponibilidadResponses API (acceso general)
Eficiencia3-4x más eficiente en tokens vs GPT-5.2
Acceso alternativoOpenRouter

🔗 Tuit @OpenAIDevs


Meta + AMD: acuerdo multianual por ~6 GW de GPU

24 de febrero — Meta anuncia una asociación multianual con AMD para integrar las últimas GPU AMD Instinct en su infraestructura global.

El despliegue contempla alrededor de 6 GW de capacidad de centro de datos dedicada, con el objetivo de desarrollar modelos de IA de vanguardia y llevar una “inteligencia artificial personal superinteligente” a miles de millones de usuarios en el mundo.

“Today we’re announcing a multi-year agreement with @AMD to integrate their latest Instinct GPUs into our global infrastructure. With approximately 6GW of planned data center capacity dedicated to this deployment, we’re scaling our compute capacity to accelerate the development of cutting-edge AI models and deliver personal superintelligence to billions around the world.”

🇪🇸 Hoy anunciamos un acuerdo multianual con @AMD para integrar sus últimas GPU Instinct en nuestra infraestructura global. Con aproximadamente 6 GW de capacidad de centro de datos planificada para este despliegue, incrementamos nuestra capacidad de cómputo para acelerar el desarrollo de modelos de IA de vanguardia y llevar una superinteligencia personal a miles de millones de personas en el mundo.@AIatMeta en X

Este acuerdo marca una diversificación significativa de proveedores de GPU para Meta, que hasta ahora se apoyaba principalmente en NVIDIA. Un contrato de esta magnitud —6 GW, es decir una infraestructura considerable para una sola asociación— es una señal clara de las ambiciones de Meta respecto al cómputo para modelos de próxima generación.

🔗 Tuit @AIatMeta


Qwen 3.5 Medium Series: 4 modelos MoE, “More intelligence, less compute”

24 de febrero — Alibaba Qwen lanza la serie Qwen 3.5 Medium, que incluye cuatro modelos con arquitectura MoE (Mixture of Experts).

El resultado más llamativo es el Qwen3.5-35B-A3B: con solo 3B parámetros activos (de 35B en total), supera a Qwen3-235B-A22B —el gigante anterior de la familia. La arquitectura MoE y un entrenamiento RL a gran escala permiten esta densidad de eficiencia.

ModeloParámetros activosNota
Qwen3.5-FlashContexto 1M tokens, herramientas integradas, alojado
Qwen3.5-35B-A3B3B activos / 35B totalSupera a Qwen3-235B-A22B
Qwen3.5-122B-A10B10B activos / 122B total
Qwen3.5-27B27B

Qwen3.5-Flash es la versión alojada de la serie, con un contexto por defecto de un millón de tokens y herramientas integradas. Los modelos están disponibles en HuggingFace, ModelScope y Qwen Chat.

🔗 Tuit @Alibaba_Qwen


Claude Code v2.1.51: Remote Control desde móvil

24 de febrero — Claude Code v2.1.51 introduce remote-control, la característica más esperada de la versión: continuar una sesión local desde el teléfono.

Iniciada desde el terminal, una sesión Claude Code puede retomarse en la app móvil Claude Code vía /remote-control. La funcionalidad está disponible para usuarios Max en research preview.

Más allá del Remote Control, esta versión aporta varias mejoras técnicas:

CambioDetalle
Plugin marketplace timeoutGit: 30s → 120s, configurable vía CLAUDE_CODE_PLUGIN_GIT_TIMEOUT_MS
npm registriesSoporte para registros personalizados y pinning de versión para plugins
BashToolOmitir login shell por defecto cuando hay snapshot disponible
Hooks de seguridadFix: statusLine y fileSuggestion hooks sin aceptación de workspace trust
Reducción de contextoTool results > 50K chars persistidos en disco (antes 100K)

🔗 CHANGELOG de Claude Code


Claude Cowork: marketplace privado de plugins y orquestación cross-apps

24 de febrero — Anthropic lanza una actualización mayor de Cowork con marketplaces privados de plugins para empresas, nuevos conectores y orquestación cross-aplicaciones.

Los administradores pueden ahora crear marketplaces de plugins privados para su organización: creación desde plantillas o desde cero, con Claude guiando la configuración. Un nuevo menú unificado “Customize” centraliza plugins, skills y conectores (MCP). Los admins disponen también de aprovisionamiento por usuario, auto-instalación y fuentes de plugins desde repos GitHub privados (en beta privada).

En cuanto a conectores, la lista se amplía con Google Workspace (Calendar, Drive, Gmail), Docusign, Apollo, Clay, Outreach, Similarweb, MSCI, LegalZoom, FactSet, WordPress y Harvey. Empresas como Slack, LSEG, S&P Global y Tribe AI también han publicado plugins.

Nuevas plantillas de plugins por departamento están disponibles:

DepartamentoEjemplos de flujos de trabajo
RR. HH.Cartas de oferta, onboarding, evaluaciones de rendimiento
DiseñoCríticas UX, auditorías de accesibilidad, planes de investigación de usuarios
IngenieríaStandups, incident response, checklists de deploy, postmortems
OperacionesDocumentación de procesos, evaluación de proveedores
FinanzasAnálisis de mercado, modelización financiera, diapositivas PowerPoint
Investment BankingDocumentos de transacción, análisis comparables
Private EquityDue diligence, scoring por criterios de inversión

Claude puede ahora también orquestar tareas entre Excel y PowerPoint — analizar datos en Excel y luego generar una presentación en PowerPoint, pasando el contexto de un add-in a otro. Esta funcionalidad está disponible en research preview para todos los planes de pago en Mac y Windows.

Finalmente, el soporte OpenTelemetry permite a los administradores seguir el uso, los costes y la actividad de las herramientas por equipo.

🔗 Blog: Marketplaces de plugins Cowork para empresas 🔗 Tuit @claudeai


OpenAI: Codex CLI v0.99.0

24 de febrero — Codex CLI llega a la versión 0.99.0 con varias nuevas funcionalidades.

El comando /statusline permite ahora personalizar los metadatos mostrados en el footer de la interfaz TUI. Se aceptan imágenes GIF y WebP como adjuntos. La ejecución de comandos shell directos ya no bloquea un turno en curso — pueden ejecutarse en concurrencia. El snapshot del entorno shell y de los archivos de configuración rc está ahora activado.

FeatureDetalle
/statuslineConfigurar el footer TUI interactivamente
Imágenes GIF/WebPNuevos formatos aceptados como adjuntos
Shell snapshotSnapshot del entorno shell y archivos rc
App-server APIsTurn/steer, feature discovery, resume_agent
Control de búsqueda webModos restringidos vía requirements.toml (Enterprise)

También se incluye una corrección de seguridad (RUSTSEC-2026-0009).

npm install -g @openai/codex@0.99.0

🔗 Changelog de Codex v0.99.0


DeepSeek-V3.2: versión oficial

24 de febrero — DeepSeek anuncia la versión oficial de DeepSeek-V3.2, sucesora de la versión experimental V3.2-Exp de noviembre de 2025.

Según el banner de la homepage deepseek.com, la V3.2 refuerza las capacidades Agent e integra razonamiento reflexivo (thinking/reasoning). La versión está disponible en web, app móvil y API. El detalle técnico completo se publica en WeChat (canal principal de anuncios de DeepSeek en chino).

🔗 deepseek.com


Perplexity y Comet: modo vocal para todos

24 de febrero — Perplexity despliega una actualización significativa de su modo vocal en Perplexity y en su navegador Comet, disponible para todos los usuarios —no solo suscriptores.

El nuevo modo vocal de Comet permite interrogar a la IA sobre lo que se muestra en pantalla, navegar entre sitios web por voz y mantener una conversación coherente en varias pestañas sin perder el contexto. Esta persistencia contextual multi-pestañas es un avance respecto a los asistentes vocales clásicos.

AspectoDetalle
DisponibilidadTodos los usuarios (no solo suscriptores)
PlataformasAndroid, Mac, Windows
Funcionalidad claveNavegación vocal multi-pestañas con contexto persistente

🔗 Tuit @perplexity_ai 🔗 Tuit @comet


Google DeepMind: Music AI Sandbox × Wyclef Jean

24 de febrero — Google DeepMind y YouTube presentan una colaboración con el productor y artista Wyclef Jean en torno a Music AI Sandbox.

Music AI Sandbox —impulsado por Lyria 3, el modelo de generación musical anunciado el 18 de febrero— permite a músicos profesionales experimentar con la IA como socio creativo. Wyclef Jean ha utilizado estas herramientas para desarrollar su canción “Back from Abu Dhabi”. El proceso de creación está documentado en un vídeo disponible en YouTube.

Esta colaboración forma parte de una serie de asociaciones con artistas iniciada por Google DeepMind para explorar los usos creativos de la IA musical en condiciones reales de estudio.

🔗 Tuit @GoogleAI 🔗 Tuit @GoogleDeepMind


Google DeepMind: Robotics Accelerator en Europa

24 de febrero — Google DeepMind anuncia el lanzamiento de su Robotics Accelerator en Europa, un programa dedicado a startups del sector de la robótica.

El objetivo declarado es cerrar la brecha entre la tecnología y las salidas comerciales, y acelerar la próxima generación de agentes físicos. El programa se presenta como hecho a medida para startups, con acceso a recursos y a la experiencia de Google DeepMind.

🔗 Tuit @GoogleDeepMind


NVIDIA + Red Hat: AI Factory para la empresa

24 de febrero — Red Hat y NVIDIA anuncian conjuntamente el Red Hat AI Factory with NVIDIA, una solución combinada para acelerar la adopción de la IA en la empresa.

La plataforma reúne Red Hat AI Enterprise (orquestación y despliegue de modelos) con NVIDIA AI Enterprise (capa de software optimizada para GPU NVIDIA). El objetivo es reducir la complejidad operativa y el coste total de propiedad para las organizaciones que despliegan aplicaciones IA en producción.

🔗 Tuit @NVIDIAAI


Black Forest Labs: Safety Evaluation — 10x menos vulnerabilidades

24 de febrero — Black Forest Labs publica los resultados de una evaluación externa independiente de riesgos emergentes para sus modelos FLUX.

Los resultados muestran más de 10x menos vulnerabilidades que otros modelos de imagen open-weight populares. BFL afirma que alto rendimiento, innovación abierta y salvaguardas pueden ir de la mano — un enfoque de transparencia poco común en la industria de modelos de imagen de código abierto.

🔗 Tuit @bfl_ml


En breve

Claude Code v2.1.52 — parche específico publicado tras la v2.1.51: corrige un bloqueo de la extensión VS Code en Windows (command 'claude-vscode.editor.openLast' not found). Ninguna nueva funcionalidad.

GitHub Copilot SDK — agente para PowerPoint — GitHub comparte una demo (23 de febrero) que muestra cómo construir un agente con el Copilot SDK capaz de buscar la documentación más reciente, analizar diapositivas existentes para reproducir su estilo y generar nuevas diapositivas directamente en PowerPoint. 🔗 Tuit @github

Runway — Interior Designer — Runway presenta un caso de uso creativo: transformar una foto de una habitación en un diseño de interiores personalizado mediante una combinación de Nano Banana Pro, Kling 3.0 y Gen-4.5. Una demo de marketing que ilustra la plataforma multimodelo lanzada el 20 de febrero. 🔗 Tuit @runwayml


Lo que significa

La RSP v3.0 de Anthropic marca un giro en el enfoque de seguridad en IA: al hacer públicos sus objetivos mediante la Frontier Safety Roadmap y comprometerse con Risk Reports sometidos a revisión externa, Anthropic pasa de una política interna a un mecanismo de responsabilidad pública. Es una presión suave sobre toda la industria — y una respuesta implícita a las críticas sobre la opacidad de las decisiones de despliegue.

El acuerdo Meta+AMD por 6 GW es una señal de alarma para NVIDIA: el único proveedor de GPU usado hasta ahora por Meta comienza a ser rivalizado abiertamente. Para AMD, es una validación a gran escala de sus GPU Instinct, que aún luchan por imponerse frente a las H100/H200 en las cargas de trabajo de entrenamiento.

Qwen 3.5 Medium confirma que la arquitectura MoE ya no es patrimonio exclusivo de los modelos muy grandes: un 35B-A3B que supera a un 235B es una compresión de inteligencia notable, accesible para quienes no tienen la infraestructura para hacer funcionar a los gigantes.


Fuentes

Este documento ha sido traducido de la versión fr al idioma es utilizando el modelo gpt-5-mini. Para más información sobre el proceso de traducción, consulte https://gitlab.com/jls42/ai-powered-markdown-translator