Los días 25 y 26 de marzo traen varios anuncios estructurantes por parte de Anthropic: Claude integra Figma, Canva y Amplitude como herramientas de trabajo directamente desde el móvil, y Claude Code ve su arranque acelerado 2,8x gracias a 60 días de optimizaciones Bun. GitHub Copilot modifica su política de uso de los datos de interacción con un opt-out que debe activarse antes del 24 de abril. Google DeepMind lanza Lyria 3 Pro con generación musical ampliada hasta 3 minutos, y NVIDIA funda la Nemotron Coalition en la GTC 2026.
Claude: herramientas de trabajo en móvil (Figma, Canva, Amplitude)
25 de marzo — Claude integra ahora tres herramientas de trabajo accesibles directamente desde la aplicación móvil: Figma, Canva y Amplitude. Los usuarios pueden así gestionar flujos de trabajo de diseño, creación y análisis desde su teléfono, sin salir de la interfaz de Claude.
El anuncio en X, acompañado de un vídeo de demostración, generó 1,9 millones de visualizaciones en pocas horas — señal de que la integración de herramientas profesionales en la interfaz móvil responde a una demanda fuerte.
Claude Code: arranque 2,8x más rápido, Agent SDK 5,1x
24 de marzo — Tras 60 días de optimizaciones lideradas por Jarred Sumner (creador de Bun, adquirido por Anthropic en diciembre de 2025), Claude Code arranca ahora 2,8x más rápido, y el Agent SDK muestra rendimientos 5,1x superiores.
Estas mejoras son fruto de un trabajo de bajo nivel sobre el runtime Bun integrado en Claude Code — optimizaciones del arranque, de la gestión de memoria y del tiempo de respuesta inicial. Reposteado por Brian Cherny (@bcherny, equipo Claude Code), este hilo técnico ilustra concretamente lo que aporta la integración de Bun en el núcleo de las herramientas de Claude.
GitHub Copilot: opt-out de datos de interacción antes del 24 de abril
25 de marzo — Mario Rodriguez, director de producto de GitHub, anuncia una actualización de la política de uso de los datos de interacción de Copilot. A partir del 24 de abril de 2026, GitHub utilizará los datos de interacción de los usuarios de Copilot Free, Pro y Pro+ — entradas, salidas, fragmentos de código y contexto asociado — para entrenar y mejorar sus modelos IA.
Los usuarios afectados pueden desactivar este uso desde la configuración de su cuenta antes de esa fecha. Los suscriptores de Copilot Business y Copilot Enterprise no se ven afectados por este cambio — sus datos siguen sujetos a los acuerdos contractuales existentes que excluyen el entrenamiento.
| Plan | Afectado por este cambio | Opt-out disponible |
|---|---|---|
| Copilot Free | Sí | Sí |
| Copilot Pro | Sí | Sí |
| Copilot Pro+ | Sí | Sí |
| Copilot Business | No | — |
| Copilot Enterprise | No | — |
El punto de inflexión es el 24 de abril: los usuarios que no hayan desactivado el uso antes de esa fecha comenzarán a contribuir a los datos de entrenamiento.
🔗 Actualización de la política de datos de GitHub Copilot 🔗 Anuncio en X
Lyria 3 Pro: pistas musicales de hasta 3 minutos con arquitectura musical
25 de marzo — Google DeepMind lanza Lyria 3 Pro, una versión avanzada del modelo de generación musical Lyria 3 lanzado el mes anterior. La novedad principal: la capacidad de generar pistas de hasta 3 minutos, frente a los 30 segundos de la generación previa — un factor 6.
El modelo incluye ahora la arquitectura musical (musical architecture) — intros, estrofas, estribillos, puentes — lo que permite producir canciones con transiciones coherentes y estructuras elaboradas. Los prompts aceptan texto, imágenes o vídeo como punto de partida.
| Plataforma | Acceso | Estado |
|---|---|---|
| Aplicación Gemini | Suscriptores de pago | Disponible |
| Google AI Studio + API Gemini | Desarrolladores | Disponible con Lyria RealTime |
| Vertex AI | Empresas | Vista previa pública |
| Google Vids | Workspace + AI Pro/Ultra | Despliegue semana del 25 de marzo |
| ProducerAI | Gratuito y de pago | Experiencia agente para músicos |
Lyria 3 Pro fue utilizada por el productor Yung Spielburg para el cortometraje de Google DeepMind “Dear Upstairs Neighbors”, y se anuncia una colaboración con el DJ François K para una próxima canción.
🔗 Blog oficial de Google — Lyria 3 Pro 🔗 Anuncio en X
NVIDIA Nemotron Coalition: modelos fundamentales abiertos de nivel frontier
25 de marzo — Con motivo de la NVIDIA GTC 2026, Jensen Huang anuncia la creación de la NVIDIA Nemotron Coalition, una coalición global de desarrolladores de modelos dedicada al desarrollo de modelos fundamentales abiertos de nivel frontier (frontier open foundation models).
El primer proyecto concreto de la coalición será un modelo base codiseñado por Mistral AI y NVIDIA, con miembros contribuyendo a los datos, evaluaciones y experiencia sectorial. Los panelistas de la sesión GTC incluyeron a Mira Murati (Thinking Machines Lab), Aravind Srinivas (Perplexity), Arthur Mensch (Mistral), Robin Rombach (Black Forest Labs), así como representantes de Cursor y Ai2.
Algunos números destacados durante el evento:
- NVIDIA es ahora la organización más grande en Hugging Face, con alrededor de 4 000 miembros
- Los modelos Nemotron se han descargado más de 45 millones de veces
“Proprietary versus open is not a thing. It’s proprietary and open.”
🇪🇸 La distinción propietario versus abierto no existe realmente. Es propietario y abierto. — Jensen Huang, NVIDIA GTC 2026
🔗 Blog NVIDIA — El futuro de la IA es abierto y propietario
OpenAI: los entresijos del Model Spec y las evaluaciones asociadas
25 de marzo — OpenAI publica una explicación detallada de su enfoque respecto al Model Spec — el marco público que define cómo se espera que se comporten sus modelos. Esta entrada, firmada por Jason Wolfe (investigador de OpenAI), explica la filosofía, la estructura y los mecanismos de evolución.
El Model Spec se articula en varios niveles distintos:
| Nivel | Descripción |
|---|---|
| Intenciones y compromisos públicos | Objetivos de alto nivel: despliegue iterativo, evitar daños graves |
| Cadena de mando (Chain of Command) | Reglas para resolver conflictos entre instrucciones de OpenAI, desarrolladores y usuarios |
| Reglas estrictas (Hard rules) | Límites no modificables: riesgos catastróficos, daños físicos, contenido ilegal |
| Comportamientos por defecto | Puntos de partida modificables por desarrolladores y usuarios |
| Ayudas a la interpretación | Reglas de decisión y ejemplos para casos ambiguos |
La distinción central: las reglas estrictas son ineludibles (nivel “root”), mientras que los comportamientos por defecto son configurables — lo que permite maximizar la libertad de los usuarios dentro de los límites de seguridad.
OpenAI sostiene que una IA suficientemente avanzada no puede deducir simplemente el comportamiento correcto a partir de objetivos generales como “ser útil y seguro”: estas formulaciones dependen demasiado del contexto e implican compensaciones de valores. El Model Spec sirve tanto como objetivo interno, herramienta de transparencia y mecanismo de coordinación entre equipos.
Paralelamente, OpenAI publica las Model Spec Evals — una suite de evaluaciones de escenarios que intenta cubrir las afirmaciones del Model Spec con ejemplos representativos, para medir las brechas entre el comportamiento real del modelo y la especificación.
🔗 Sobre nuestro enfoque del Model Spec 🔗 Anuncio en X
Genspark Realtime Voice: asistente vocal manos libres
25 de marzo — Genspark lanza Realtime Voice, un asistente vocal en tiempo real totalmente manos libres. El caso de uso destacado en el lanzamiento: el uso en el coche durante el trayecto casa-trabajo.
Las funcionalidades anunciadas incluyen la consulta del calendario, el envío de correos y mensajes, la búsqueda de información y la creación de listas de reproducción para el trayecto. El asistente también puede generar presentaciones (slides), realizar búsquedas profundas (deep research) y analizar datos — todo por voz.
OpenAI Safety Bug Bounty: reportes de riesgos IA
25 de marzo — OpenAI lanza un programa de bug bounty dedicado a la seguridad IA, distinto del programa de seguridad informática clásico ya existente. Este nuevo programa acepta reportes de riesgos de abuso que no necesariamente corresponden a vulnerabilidades de software tradicionales.
| Categoría en alcance | Ejemplos |
|---|---|
| Riesgos agentivos (incluido MCP) | Inyección de prompt de terceros, exfiltración vía agente, acciones no autorizadas a gran escala |
| Información propietaria de OpenAI | Generación que revela información de razonamiento propietaria |
| Integridad de cuentas y plataformas | Elusión de controles anti-automatización, manipulación de señales de confianza |
Los jailbreaks clásicos quedan fuera de alcance. OpenAI también indica que realiza campañas privadas puntuales sobre tipos específicos de daño — por ejemplo contenidos de riesgo biológico en ChatGPT Agent y GPT-5.
🔗 Presentamos el programa OpenAI Safety Bug Bounty
Codex Creator Challenge: concurso estudiantil con 10 000 $ en créditos
25 de marzo — OpenAI y Handshake lanzan el Codex Creator Challenge, un concurso dirigido a estudiantes para crear proyectos reales con Codex. En juego: 10 000 $ en créditos de la API de OpenAI. El desafío invita a los estudiantes a experimentar con las herramientas de Codex y construir aplicaciones concretas.
ElevenLabs: Guardrails 2.0 en ElevenAgents, certificado AIUC-1
24 de marzo — ElevenLabs despliega Guardrails 2.0 en su plataforma ElevenAgents. Esta capa de seguridad permite controlar el comportamiento de los agentes en producción con políticas de negocio personalizadas o protecciones preconfiguradas: mantenerse en el tema (on-topic), coherencia de marca (on-brand), resistencia a la manipulación.
Guardrails 2.0 está certificado AIUC-1 (AI Use Case standard) e incluye funcionalidades de protección de datos, escritura del historial de conversaciones y monitoreo post-despliegue.
PrismAudio: modelo video-a-audio open source por Tongyi Lab (Alibaba)
24 de marzo — Tongyi Lab de Alibaba publica PrismAudio, un modelo video-a-audio (Video-to-Audio). A diferencia de los enfoques V2A (Video-to-Audio) clásicos que optimizan todo con una única función de pérdida, PrismAudio adopta una arquitectura “Decomposed Multi-CoT” con tres cabezas especializadas separadas —cada una dedicada a un aspecto distinto de la generación de audio.
El modelo se entrena con Multi-Dimensional RL y Fast-GRPO para alinear la generación de audio con las preferencias humanas. Los recursos (modelo, demo, paper en arXiv) se publican vía HuggingFace, ModelScope y una página de proyecto dedicada.
Claude Code v2.1.83: gestión centralizada de settings Enterprise
25 de marzo — La versión 2.1.83 de Claude Code introduce el directorio drop-in managed-settings.d/, destinado a los administradores Enterprise. Este directorio permite a las organizaciones gestionar los settings de Claude Code de forma centralizada, depositando archivos de configuración que se aplican a todos los puestos del despliegue.
Kling AI Team Plan: colaboración de hasta 15 miembros
24 de marzo — Kling AI lanza el Team Plan, un plan colaborativo que permite a equipos de hasta 15 miembros trabajar juntos en la plataforma. El plan incluye assets compartidos y uso comercial de las creaciones.
Manus Desktop: créditos divididos por dos hasta el 30 de marzo
24 de marzo — Manus ofrece una promoción temporal en su aplicación Desktop: del 24 al 30 de marzo de 2026, cada tarea ejecutada consume un 50 % menos de créditos. Los créditos existentes valen el doble para todas las tareas realizadas vía Manus Desktop durante este periodo.
NVIDIA dona su driver DRA GPU a la comunidad Kubernetes
24 de marzo — Al margen de la NVIDIA GTC 2026, NVIDIA anuncia la donación a la comunidad Kubernetes de su driver Dynamic Resource Allocation (DRA) para GPUs. Esta contribución se enmarca en el compromiso open source de NVIDIA y facilita la asignación dinámica de recursos GPU en entornos Kubernetes.
🔗 Blog NVIDIA — El futuro de la IA es abierto y propietario
Qué significa esto
Las dos noticias de Anthropic en este periodo son complementarias: la integración móvil de Figma, Canva y Amplitude acerca a Claude a los flujos de trabajo profesionales cotidianos, mientras que las mejoras de arranque de Claude Code (2,8x) y del Agent SDK (5,1x) mejoran concretamente la experiencia de los desarrolladores que lo usan de forma continua. Estos dos ejes —uso móvil para el gran público y rendimiento para desarrolladores— ilustran la doble trayectoria de Anthropic.
La decisión de GitHub Copilot sobre los datos de interacción es la más impactante para los desarrolladores individuales: por primera vez, los usuarios de los planes de consumo (Free, Pro, Pro+) ven sus interacciones potencialmente utilizadas para el entrenamiento. Existe un opt-out, pero debe activarse antes del 24 de abril —un plazo corto que conviene señalar.
La Nemotron Coalition de NVIDIA es una señal potente sobre la estrategia open source de la industria. Al reunir a Mistral, Black Forest Labs, Cursor y otros bajo una coalición formal para desarrollar modelos de nivel frontier, NVIDIA posiciona el open source no ya como una alternativa a los modelos propietarios, sino como una categoría complementaria por derecho propio. La frase de Jensen Huang — “proprietary and open”, no “versus” — resume bien este reposicionamiento. Lyria 3 Pro confirma que la generación musical avanza hacia formatos utilizables en producción: 3 minutos con una estructura coherente (intros, estrofas, estribillos) cambia la naturaleza del caso de uso, pasando de extractos experimentales a canciones completas. La disponibilidad en varias plataformas de Google desde la semana del lanzamiento acelera la adopción.
La publicación del Model Spec Evals por OpenAI —una serie de evaluaciones que miden las discrepancias entre el comportamiento del modelo y la especificación escrita— es notable: es uno de los primeros intentos públicos de medir objetivamente la alineación de un modelo con sus propias reglas de conducta.
Fuentes
- Actualización de la política de datos de GitHub Copilot
- Tuit @github — política de datos
- Blog de Google — Lyria 3 Pro
- Tuit @GoogleAI — Lyria 3 Pro
- Blog de NVIDIA — El futuro de la IA es abierto y propietario
- Tuit @NVIDIAAI — Cohere + IA soberana GTC
- OpenAI — Sobre nuestro enfoque del Model Spec
- Tuit @OpenAI — Model Spec
- OpenAI — Programa de recompensas por errores de seguridad
- Tuit @OpenAIDevs — Codex Creator Challenge
- Tuit @genspark_ai — Realtime Voice
- Tuit @ElevenLabs — Guardrails 2.0
- Tuit @Ali_TongyiLab — PrismAudio
- Tuit @ManusAI — Promoción de Manus Desktop
- Tuit @claudeai — Claude herramientas de trabajo móvil
- Hilo @jarredsumner — Claude Code startup 2,8x / Agent SDK 5,1x
- Registro de cambios Claude Code — v2.1.83
- Tuit @Kling_ai — Plan de equipo
Este documento ha sido traducido de la versión fr a la lengua es utilizando el modelo gpt-5-mini. Para más información sobre el proceso de traducción, consulte https://gitlab.com/jls42/ai-powered-markdown-translator