El tribunal de Ámsterdam prohíbe a xAI generar imágenes sexuales no consentidas con Grok, bajo multa de 100 000 € por día. Ese mismo día, Google lanza Gemini 3.1 Flash Live para conversaciones de audio en tiempo real en más de 90 idiomas, OpenAI integra plugins nativos en Codex (Slack, Figma, Notion, Gmail), y Anthropic publica un artículo técnico sobre el diseño del modo auto de Claude Code. Cohere, Mistral y Suno completan una semana densa en anuncios.
xAI : el tribunal de Ámsterdam prohíbe Grok nudes
27 de marzo — El tribunal de distrito de Ámsterdam dictó una sentencia contra xAI, prohibiéndole generar o distribuir imágenes sexuales no consentidas en los Países Bajos. En caso de incumplimiento, la multa asciende a 100 000 € por día, con un tope de 10 millones de €.
La decisión se produce tras una denuncia conjunta de la ONG neerlandesa Offlimits y del Victims Support Fund. Según el Center for Countering Digital Hate (CCDH), Grok generó 3 millones de imágenes sexualizadas en 11 días, de las cuales 23 000 implicaban a menores. Offlimits subraya que Grok no tiene en cuenta la ubicación geográfica de la persona representada, lo que le da un alcance mundial.
La decisión coincide con la votación del Parlamento Europeo que aprobó una prohibición de los deepfakes sexuales generados por IA — una señal fuerte de convergencia regulatoria. Se trata del primer fallo europeo de este tipo directamente en contra de xAI.
🔗 CNBC : Dutch court bans Grok AI nudes 🔗 The Record Media : Dutch court threatens xAI with fines
Gemini 3.1 Flash Live : audio en tiempo real en 90+ idiomas
26 de marzo — Google lanza Gemini 3.1 Flash Live, su modelo multimodal para conversaciones en tiempo real. Admite audio, imágenes, vídeo y texto con una ventana de contexto de 128 000 tokens y soporte para más de 90 idiomas.
En comparación con la generación anterior, el modelo mantiene conversaciones el doble de largas, gestiona mejor el ruido de fondo y los sonidos ambientales, respeta instrucciones de sistema complejas con más precisión, y activa con mayor fiabilidad herramientas externas durante la conversación. Todos los audios generados están marcados con SynthID.
| Funcionalidad | Detalle |
|---|---|
| Ventana de contexto | 128 000 tokens |
| Idiomas | 90+ |
| Conversaciones | 2× más largas que antes |
| Watermarking | SynthID en todos los audios |
Disponibilidad: vía la Live API en Google AI Studio (desarrolladores), vía Gemini Live y Search Live (usuarios, 200+ países), y vía Vertex AI (empresas). Search Live amplia también su acceso a más de 200 países y territorios, con soporte de vídeo Google Lens.
Gemini : importación de memorias e historiales desde ChatGPT y Claude
26 de marzo — Google lanza una herramienta de importación en la app Gemini para facilitar la migración desde otros asistentes de IA.
Dos funciones están disponibles:
-
Importación de memorias (“Add Memory”): Gemini sugiere un prompt para escribir en ChatGPT, Claude o Copilot. La respuesta generada (resumen de los datos personales memorizados por el otro asistente) se copia y pega en Gemini, que extrae preferencias, intereses, información de localización, etc.
-
Importación de historial (“Import Chats”): subida de un archivo
.zipexportado desde ChatGPT o Claude, hasta 5 GB. Las conversaciones pasadas pasan a ser buscables y pueden retomarse en Gemini.
🔗 Blog Google : Switch to Gemini
Gemini CLI v0.35.2 : subagents por defecto, Vim mejorado — y acceso Pro restringido
25-26 de marzo — La versión estable v0.35.2 del Gemini CLI introduce varias funcionalidades notables.
| Funcionalidad | Descripción |
|---|---|
| Subagents activados por defecto | Planificador de tareas paralelas + particionado de código |
| Atajos de teclado personalizables | Soporte keybindings, caracteres literales, protocolo Kitty |
| Modo Vim mejorado | Motions X, ~, r, f/F/t/T ; copiar-pegar con registro unnamed |
| SandboxManager unificado | Aislamiento de herramientas con bubblewrap/seccomp Linux |
| Descubrimiento de contexto JIT | Carga optimizada para herramientas de filesystem |
| gRPC nativo | Integración nativa y enrutamiento de protocolo |
Cambio de política notable: a partir del 25 de marzo, los usuarios gratuitos solo tienen acceso a Gemini Flash. El acceso a Gemini Pro queda reservado para suscriptores de pago (planes Pro y Ultra). La reacción de la comunidad es mayoritariamente negativa. Google refuerza también la detección de abusos: el uso de la autenticación OAuth del Gemini CLI con software de terceros puede ahora conllevar restricciones.
🔗 Changelog Gemini CLI 🔗 Discusión comunidad
Gemini Drop marzo 2026 : Personal Intelligence gratuito y Lyria 3 Pro
27 de marzo — La actualización mensual “Gemini Drops” de marzo 2026 presenta las nuevas funciones de la app Gemini desplegadas este mes.
| Funcionalidad | Descripción | Disponibilidad |
|---|---|---|
| Personal Intelligence gratuito | Conexión Gmail, Photos, YouTube para planificar viajes/proyectos | Gratis, Estados Unidos |
| Gemini Live mejorado | Basado en Gemini 3.1 Flash Live, contexto 2× más largo | Todos los usuarios |
| Import ChatGPT/Claude | Transferencia de memorias e historial | Todos los usuarios |
| Lyria 3 Pro | Creación de música hasta 3 minutos, fotos → anthems | Suscriptores |
| Google TV | Respuestas visuales de Gemini y narraciones | Google TV |
Codex : plugins nativos para Slack, Figma, Notion y Gmail
26-27 de marzo — OpenAI despliega los plugins como funcionalidad de primera clase en Codex. Los desarrolladores pueden conectar Codex a las herramientas que usan a diario sin configuración manual.
| Plugin | Caso de uso |
|---|---|
| Slack | Enviar mensajes, leer canales |
| Figma | Acceder a diseños, generar código |
| Notion | Leer y escribir páginas |
| Gmail | Leer y redactar correos |
Los plugins se sincronizan automáticamente al inicio de Codex y son accesibles mediante el comando /plugins. La instalación y desinstalación se realizan directamente desde la interfaz TUI con gestión de autenticación integrada.
El 27 de marzo, OpenAI publicó una galería de casos de uso prácticos accesibles con un clic: construcción de apps iOS, análisis de datasets, generación de informes y presentaciones. El changelog Codex v0.117.0 detalla las funcionalidades técnicas, incluido el soporte de menciones de plugins en los prompts.
🔗 Documentation plugins Codex 🔗 Tweet @OpenAIDevs
Anthropic : el diseño del modo auto de Claude Code explicado
26 de marzo — Anthropic publicó un artículo técnico en el blog sobre el diseño de su modo auto (modo auto) en Claude Code, disponible en el blog Engineering.
El problema abordado: los usuarios de Claude Code sufren fatiga de aprobaciones (approval fatigue). Las estadísticas muestran que el 93 % de las solicitudes de permiso son aceptadas — lo que sugiere que una automatización parcial es posible sin sacrificar la seguridad.
La solución: dos capas de clasificadores
El modo auto se basa en dos niveles de protección basados en modelos (Sonnet 4.6):
- Capa de entrada: una sonda de detección de inyección de prompt (prompt injection probe) analiza los resultados de las herramientas antes de que lleguen al agente.
- Capa de salida: un clasificador de transcripciones evalúa cada acción propuesta mediante un proceso en dos pasos antes de su ejecución.
| Nivel | Tipo de acción | Tratamiento |
|---|---|---|
| Tier 1 | Herramientas seguras (lectura de archivos, búsqueda) | Paso directo, sin clasificador |
| Tier 2 | Modificaciones de archivos en el proyecto | Evitan el clasificador (revisables vía control de versiones) |
| Tier 3 | Acciones peligrosas (comandos shell, operaciones externas) | Evaluación completa por el clasificador |
Métricas de rendimiento:
| Etapa | Tasa de falsos positivos (tráfico real) | Tasa de falsos negativos (acciones riesgosas) |
|---|---|---|
| Etapa 1 (rápida) | 8,5 % | 6,6 % |
| Pipeline completo | 0,4 % | 17 % |
La tasa de falsos positivos del 0,4 % en el pipeline completo significa que el modo auto casi nunca interrumpe el trabajo por error. La tasa de falsos negativos del 17 % refleja casos donde el clasificador detecta un peligro pero interpreta mal el alcance de la autorización otorgada por el usuario.
“New on the Engineering Blog: How we designed Claude Code auto mode. Many Claude Code users let Claude work without permission prompts. Auto mode is a safer middle ground: we built and tested classifiers that make approval decisions instead.”
🇪🇸 En el blog Engineering: cómo diseñamos el modo auto de Claude Code. Muchos usuarios permiten que Claude trabaje sin solicitudes de permiso. El modo auto es un compromiso más seguro: construimos y probamos clasificadores que toman las decisiones de aprobación en su lugar. — @AnthropicAI en X
🔗 Claude Code auto mode: a safer way to skip permissions
GitHub Copilot : resolución de conflictos de merge y visibilidad de agentes
26 de marzo — Dos actualizaciones importantes de GitHub Copilot mejoran el flujo de trabajo de los equipos.
Resolución de conflictos de merge: ahora es posible mencionar @copilot en un comentario de pull request para pedirle que resuelva los conflictos. El agente trabaja en su entorno cloud, resuelve los conflictos, comprueba que el build y los tests pasan, y luego empuja los cambios. Disponible con todos los planes de pago de Copilot (Business/Enterprise necesita activación por admin).
Visibilidad de agentes en Issues y Projects: cuando un agente de código (Copilot, Claude, Codex) está asignado a una issue, su sesión aparece bajo el assignee en la barra lateral con un estado en tiempo real — en cola, en curso, pendiente de revisión, completado. Las sesiones también son visibles en las vistas de tabla y board de Projects (a activar vía “View menu > Show agent sessions”).
🔗 Copilot resuelve conflictos de merge 🔗 Actividad de agentes en Issues y Projects
GitHub : nuevo panel de PRs y Copilot for Jira
25-26 de marzo — Dos mejoras adicionales para desarrolladores en GitHub.
Panel de Pull Requests (preview pública): un panel rediseñado en github.com/pulls centraliza las PRs que requieren atención — revisiones solicitadas, correcciones por hacer, listas para mergear. Vistas guardadas personalizadas, filtros avanzados con autocompletado y soporte de consultas AND/OR completan la interfaz. A activar vía los parámetros Feature Preview.
Copilot for Jira: desde su lanzamiento en preview pública, varias mejoras: elección del modelo de IA directamente desde Jira, inclusión automática del número de ticket Jira en el título de la PR y en el nombre de la rama, y acceso a páginas Confluence vía el servidor MCP de Atlassian (configurable con un PAT).
🔗 Nuevo panel PRs 🔗 Mejoras en Copilot for Jira
Cohere Transcribe : n.º1 en el ranking ASR open-source
26 de marzo — Cohere lanza Cohere Transcribe, su primer modelo de reconocimiento automático de voz (Automatic Speech Recognition — ASR). Disponible en open-source bajo licencia Apache 2.0, se coloca directamente en la primera posición del ranking Open ASR de Hugging Face para inglés.
El modelo se basa en una arquitectura Fast-Conformer Transformer encoder-decoder de 2 mil millones de parámetros. Más del 90 % de los parámetros están asignados al encoder, con un decoder ligero para minimizar el cómputo autorregresivo y maximizar la velocidad. Entrenado con 500 000 horas de pares audio-transcripción.
| Modelo | WER medio |
|---|---|
| Cohere Transcribe | 5,42 |
| Zoom Scribe v1 | 5,47 |
| IBM Granite 4.0 1B | 5,52 |
| NVIDIA Canary Qwen 2.5B | 5,63 |
| OpenAI Whisper Large v3 | 7,44 |
El WER (Word Error Rate — tasa de error de palabras) del 5,42 % coloca a Cohere Transcribe en cabeza. La velocidad de inferencia es 3× superior a la de competidores de tamaño comparable. Soporta 14 idiomas (incluyendo francés, alemán, árabe, chino mandarín, japonés y coreano).
Límites a tener en cuenta: el modelo no está diseñado para code-switching (cambios de idioma durante el audio) y puede transcribir sonidos no vocales — se recomienda añadir un filtro VAD (Voice Activity Detection).
🔗 Blog Cohere : Transcribe 🔗 Modelo en Hugging Face
Suno v5.5 : voz personal, modelos a medida, preferencias adaptativas
26 de marzo — Suno lanza la versión 5.5 de su herramienta de generación musical, con tres nuevas funciones centradas en la personalización.
| Funcionalidad | Descripción | Disponibilidad |
|---|---|---|
| Voices | Capturar y usar la propia voz cantada (permanece privada) | Todos los usuarios |
| Custom Models | Fine-tuning a partir de sus composiciones originales, hasta 3 modelos | Suscriptores Pro/Premier |
| My Taste | Aprendizaje adaptativo de preferencias en géneros y ambientes | Todos los usuarios |
Estas herramientas se presentan como las bases de los modelos de próxima generación desarrollados en colaboración con la industria musical.
Mistral Voxtral TTS : clon de voz en 3 segundos, open-weight
23 de marzo (cobertura prensa 26-27 de marzo) — Mistral publica Voxtral TTS, su primer modelo de síntesis de voz (Text-to-Speech) open-weight. El modelo voxtral-tts-2603 cuenta con 4 mil millones de parámetros y soporta 9 idiomas (inglés, francés, alemán, español, neerlandés, portugués, italiano, hindi, árabe).
La latencia anunciada es de 70 ms para una configuración tipo (muestra de 10 segundos + 500 caracteres). El clonaje de voz funciona con solo 3 segundos de audio de referencia. En términos de naturalidad, Mistral indica que Voxtral supera a ElevenLabs Flash v2.5 y alcanza la paridad con ElevenLabs v3. El modelo puede ejecutarse en un portátil de consumo, un GPU mid-range o un dispositivo móvil de gama alta. Acceso: pesos disponibles en Hugging Face (licencia Creative Commons) y vía la API Mistral Studio a 0,016 dólares por 1 000 caracteres. Integración del modo de voz disponible en Le Chat.
xAI: SuperGrok Lite a 10 dólares/mes y vídeos stories de 15 segundos
25 de marzo — xAI anunció dos novedades alrededor de Grok.
SuperGrok Lite: un nuevo plan de suscripción a 10 dólares al mes, actualmente en prueba limitada. Incluye sesiones de chat el doble de largas que el nivel gratuito, un agente IA y generación de vídeo en resolución 480p (máximo 6 segundos). El plan se sitúa entre el nivel gratuito y SuperGrok Standard (30 dólares al mes).
Video stories vía Grok Imagine: Grok Imagine genera ahora “video stories” de 15 segundos en 720p con audio sincronizado, música de fondo y efectos sonoros. Elon Musk declaró querer “doblar la apuesta” en vídeo. Este anuncio se produce en el contexto del cierre de Sora por OpenAI la misma semana.
🔗 Bloomberg: xAI doubling down on AI videos
Kimi/Moonshot AI contempla una salida a bolsa en Hong Kong
26 de marzo — Moonshot AI, la empresa china detrás del modelo Kimi, estudia una salida a bolsa en la bolsa de Hong Kong, según Bloomberg. Los bancos asesores serían CICC y Goldman Sachs, con una valoración objetivo de alrededor de 18 000 millones de dólares y una financiación en curso de hasta 1 000 millones de dólares. Los accionistas actuales incluyen Alibaba, Tencent y 5Y Capital. El calendario de la OPV sigue siendo incierto.
🔗 Bloomberg: Moonshot considers Hong Kong IPO
NVIDIA GTC: la IA propietaria y abierta no se oponen
25 de marzo — En el marco del GTC 2026, NVIDIA y líderes del sector (Mistral, Perplexity, Cursor, Reflection AI, LangChain) afirmaron que el futuro de la IA reside en la complementariedad de los modelos abiertos y propietarios. Jensen Huang resumió la posición de NVIDIA: “Propietario frente a abierto no es algo. Es propietario y abierto.”
El artículo del blog subraya la necesidad de orquestación multimodelo, multicloud y multimodal para las empresas. NVIDIA confirma su compromiso con el open source al convertirse en la mayor organización en Hugging Face.
🔗 Blog NVIDIA: AI Open and Proprietary
Claude Code v2.1.85 y v2.1.84: hooks condicionales y PowerShell en Windows
26-27 de marzo — Se publicaron dos nuevas versiones de Claude Code.
v2.1.85 (27 de marzo): introducción de un campo condicional if en la configuración de los hooks, que permite desencadenar un hook solo en ciertos comandos o archivos. También: variables de entorno para los scripts de ayuda MCP, marcas temporales en las transcripciones para las tareas programadas, soporte OAuth conforme a la RFC 9728, y posibilidad para que los hooks PreToolUse satisfagan AskUserQuestion devolviendo updatedInput.
v2.1.84 (~26 de marzo): PowerShell en Windows disponible en vista previa (opt-in preview) como herramienta nativa, hook TaskCreated (desencadenado al crear una tarea por Claude), soporte HTTP para WorktreeCreate, y prompt de retorno mostrado tras 75 minutos de inactividad. Corrección de un bug de permisos en los scripts de plugins oficiales en macOS/Linux.
🔗 Tweet @lydiahallie — v2.1.85
Z.ai GLM-5.1 disponible para todos los suscriptores del Coding Plan
27 de marzo — Z.ai (Zhipu) anuncia que GLM-5.1 está ahora accesible para todos los suscriptores del GLM Coding Plan, sea cual sea el nivel de suscripción (Lite, Pro o Max).
Genspark integra Grok Imagine en su agente de vídeo
26 de marzo — Genspark integró Grok Imagine (generación de vídeo multi-imagen y extensión de vídeo) en su Genspark AI Video Agent. Los usuarios pueden usar hasta 7 imágenes para crear un vídeo, o extender un vídeo existente hasta 10 segundos.
Meta SAM 3.1: seguimiento de 16 objetos en tiempo real, velocidad duplicada
27 de marzo — Meta publica SAM 3.1, una actualización del modelo Segment Anything Model 3 para la detección y el seguimiento de objetos en vídeo en tiempo real. La innovación central es el multiplexado de objetos (object multiplexing): en lugar de una pasada separada por objeto seguido, todos los objetos se procesan en una sola pasada (forward pass). Resultado: hasta 16 objetos simultáneamente, con una velocidad que pasa de 16 a 32 fotogramas por segundo en una GPU H100 — es decir, el doble — mientras reduce significativamente el consumo de memoria.
La arquitectura se basa en un codificador/decodificador Mux-Demux que comparte una sola computación para todos los objetos. Un mecanismo de razonamiento global (global reasoning) mejora la precisión en escenas con muchos elementos. SAM 3.1 es un reemplazo directo (drop-in replacement) de SAM 3 — no se requiere ningún cambio de API.
El modelo se publica en open source: checkpoint descargable en Hugging Face, código fuente actualizado en GitHub, artículo de investigación publicado y demo interactiva disponible.
🔗 Blog Meta: SAM 3.1 🔗 Code GitHub 🔗 Tweet @AIatMeta
Meta TRIBE v2: un gemelo digital de la actividad cerebral humana
26 de marzo — Meta publica TRIBE v2, un modelo de base predictivo diseñado como “gemelo digital” (digital twin) de la actividad neuronal. El modelo predice las respuestas cerebrales fMRI de alta resolución a casi cualquier sonido, imagen o texto, con una resolución 70× superior a los enfoques previos. Entrenado con datos de más de 700 voluntarios, funciona en modo cero-shot (zero-shot) para nuevos sujetos, idiomas y tareas sin reentrenamiento. El objetivo es permitir a los neurocientíficos probar hipótesis rápidamente sin experimentos humanos y acelerar la investigación sobre trastornos neurológicos. El modelo, el código y el artículo científico se publican bajo licencia CC BY-NC.
🔗 Blog Meta: TRIBE v2 🔗 Tweet @AIatMeta
Qué significa esto
La decisión del tribunal de Ámsterdam marca un giro regulatorio: es la primera vez que una jurisdicción europea condena directamente a xAI por contenidos generados por Grok, con una multa coercitiva disuasoria. Combinado con la votación del Parlamento Europeo sobre los deepfakes sexuales el mismo día, esto perfila un marco legal que se impondrá de forma progresiva a todos los proveedores de IA generativa.
En cuanto a las herramientas para desarrolladores, la semana ilustra la carrera por la integración: Codex con sus plugins nativos, Copilot con la resolución de conflictos de merge y la visibilidad de los agentes en Issues/Projects, y Claude Code con sus hooks condicionales. Los asistentes IA se integran cada vez más profundamente en los flujos de trabajo existentes en lugar de sustituirlos.
La restricción del acceso a Gemini Pro en el CLI gratuito es una señal de que el periodo de generosidad en las herramientas CLI empieza a reducirse. Gemini, como GitHub Copilot antes que él, converge hacia un modelo freemium donde las capacidades avanzadas requieren suscripción.
Finalmente, la OPV contemplada de Kimi en Hong Kong por 18 000 millones de dólares confirma la atractividad de las valoraciones en el sector de IA chino, mientras que Mistral, con Voxtral TTS, sigue posicionando sus modelos open-weight como alternativa a los servicios propietarios en la síntesis de voz.
Fuentes
- CNBC: Tribunal holandés prohíbe imágenes desnudas generadas por Grok AI
- The Record Media: Tribunal holandés amenaza a xAI con multas
- Al Jazeera: Tribunal holandés prohíbe la desnificación de xAI Grok
- Blog Google: Gemini 3.1 Flash Live
- Blog Google: Desarrolladores Gemini 3.1 Flash Live
- Blog Google: Cambiar a Gemini
- Blog Google: Gemini Drop marzo 2026
- Changelog Gemini CLI
- Discusión política Gemini CLI
- TechCrunch: Gemini importa ChatGPT/Claude
- Documentación plugins Codex
- Tweet @OpenAIDevs — plugins
- Anthropic Engineering: Claude Code auto mode
- Tweet @AnthropicAI — auto mode
- GitHub Changelog: Copilot resuelve conflictos de merge
- GitHub Changelog: Actividad de agentes en Issues y Projects
- GitHub Changelog: Panel de control de PRs
- GitHub Changelog: Copilot for Jira
- Blog Cohere: Transcribe
- Hugging Face: Cohere Transcribe
- TechCrunch: Cohere Transcribe
- Suno Blog v5.5
- Mistral Voxtral TTS
- TechCrunch: Mistral Voxtral
- Bloomberg: xAI doubling down on videos
- Bloomberg: Moonshot IPO Hong Kong
- Blog NVIDIA GTC: Open and Proprietary AI
- Tweet @lydiahallie — Claude Code v2.1.85
- PANews: GLM-5.1 Coding Plan
- Tweet @genspark_ai
- Blog Meta: SAM 3.1
- GitHub SAM 3
- Tweet @AIatMeta — SAM 3.1
- Blog Meta: TRIBE v2
- Tweet @AIatMeta — TRIBE v2
Este documento ha sido traducido de la versión fr al idioma es utilizando el modelo gpt-5-mini. Para más información sobre el proceso de traducción, consulte https://gitlab.com/jls42/ai-powered-markdown-translator