Luma AI lanza Uni-1, un modelo que fusiona razonamiento y generación de píxeles en una sola pasada, acumulando 6,1 millones de visualizaciones en pocos días. Mientras tanto, Perplexity despliega sus API en Samsung Browsing Assist en más de mil millones de dispositivos, Claude Code v2.1.86 llega con una quincena de correcciones, y GitHub Copilot CLI introduce la generación de tests unitarios mediante agentes en autopilot.
Luma Uni-1 — Razonamiento y generación de píxeles unificados
23 de marzo — Luma AI anunció Uni-1, un modelo que describe como «un nuevo tipo de modelo que piensa y genera píxeles simultáneamente». A diferencia de los modelos de difusión clásicos que primero generan una representación latente y luego la decodifican, Uni-1 fusiona el razonamiento y la generación en un único proceso.
El anuncio atrajo la atención con 6,1 millones de visualizaciones, 4 000 likes y más de un millar de compartidos — cifras inusuales para un anuncio técnico en generación de imágenes.
Arquitectura y posicionamiento:
| Capacidad | Descripción |
|---|---|
| Razonamiento espacial | Comprende y completa escenas con coherencia de perspectiva y oclusión |
| Razonamiento de sentido común | Inferencia de la intención de la escena para guiar la generación |
| Transformación guiada | Modificaciones dirigidas por la plausibilidad física, no solo por la correspondencia de píxeles |
| Inteligencia unificada | Comprensión, directrices y generación en una sola pasada (unified pass) |
Luma posiciona Uni-1 con la fórmula «Less artificial. More intelligent.» — señalando una ruptura con los generadores de imágenes basados en la correspondencia estadística de patrones visuales. El modelo se presenta como la base de los futuros «Creative Agents» de Luma, potencialmente el motor de la próxima generación de Dream Machine.
Uni-1 está disponible de inmediato en lumalabs.ai/app.
“A new kind of model that thinks and generates pixels at the same time.”
🇪🇸 Un nuevo tipo de modelo que piensa y genera píxeles simultáneamente. — @LumaLabsAI en X
Perplexity alimenta Samsung Browsing Assist en 1 000 millones de dispositivos
26 de marzo — Samsung lanzó Browsing Assist, un asistente conversacional de IA integrado de forma nativa en Samsung Browser en dispositivos Galaxy Android y en PCs con Windows. Detrás de la funcionalidad: las API de Perplexity, desplegadas en un alcance sin precedentes de más de mil millones de dispositivos Samsung en todo el mundo.
Este lanzamiento consolida una asociación ya existente: Perplexity alimenta dos de los tres asistentes integrados en el Galaxy S26 — el asistente nativo Perplexity y Bixby, que utiliza las API de Perplexity para la búsqueda web y el razonamiento. Con Browsing Assist, Perplexity pasa de ser un asistente conversacional a la capa de IA del propio navegador.
Capacidades de Browsing Assist:
| Funcionalidad | Descripción |
|---|---|
| Respuestas con fuentes | Resultados en tiempo real durante la navegación |
| Resumen de páginas | Incluye contenido autenticado (páginas tras inicio de sesión) |
| Búsqueda en el historial | En lenguaje natural |
| Gestión conversacional | Abrir, cerrar, navegar entre pestañas por voz o texto |
| Acciones multi-pestaña | Operar simultáneamente en varias pestañas abiertas |
| Sincronización teléfono → PC | Retomar una conversación iniciada en móvil |
Infraestructura: Browsing Assist funciona en un clúster Perplexity dedicado a un solo tenant (single-tenant), con retención nula de datos en todas las entradas API. El endpoint fue diseñado a medida para la rapidez y la escala requeridas por Samsung.
Perplexity señala que las capacidades desplegadas en Samsung — búsqueda, razonamiento, orquestación multi-pestaña — son exactamente aquellas sobre las que se construye su navegador Comet. Este despliegue representa una validación a gran escala de la stack técnica de Perplexity.
Disponibilidad: Estados Unidos y Corea del Sur en el lanzamiento; otras regiones próximamente. Las mismas capacidades están accesibles para desarrolladores vía la Search API, la Embeddings API y la Agent API de Perplexity.
Claude Code v2.1.86 — Correcciones importantes y soporte VCS Jujutsu/Sapling
27 de marzo — Anthropic publicó Claude Code v2.1.86, una versión especialmente densa en correcciones. La actualización aporta una quincena de correcciones de bugs y varias mejoras de rendimiento.
Principales mejoras:
| Categoría | Cambio |
|---|---|
| API | Header X-Claude-Code-Session-Id para agregar las peticiones por sesión en el proxy |
| VCS | Exclusión de .jj (Jujutsu) y .sl (Sapling) en Grep y autocompletado |
| Cache MCP | Tiempo de inicio reducido de 5s a 30s (cache keychain macOS) |
| Rendimiento | Tasa de cache mejorada en Bedrock, Vertex y Foundry |
| Tokens | Reducción del overhead en menciones @fichier (ya no hay JSON-escape del contenido bruto) |
| UX memoria | Nombres de archivos de memoria clicables en la notificación «Saved N memories» |
| Skills | Descripciones limitadas a 250 caracteres; menú /skills ordenado alfabéticamente |
| Read tool | Formato de números de línea compacto, desduplicación de relecturas idénticas |
Correcciones de bugs notables: --resume fallaba en sesiones creadas antes de v2.1.85; Write/Edit/Read fallaba en archivos fuera de la raíz del proyecto con skills condicionales; posible crash por memoria con /feedback en sesiones largas; el modo --bare perdía las herramientas MCP; el atajo de copia de URL OAuth solo copiaba ~20 caracteres en lugar de la URL completa; scripts de plugins oficiales del marketplace fallaban con «Permission denied» en macOS/Linux desde v2.1.83.
GitHub Copilot CLI — Tests unitarios por agentes en autopilot
28 de marzo — GitHub anunció una nueva capacidad de Copilot CLI: generar automáticamente una suite completa de tests unitarios directamente desde el terminal, combinando el modo plan (plan mode) con una flota de agentes en modo autopilot.
Workflow:
- Activar el modo plan con
Shift-Taben el terminal - Lanzar una flota de agentes en autopilot
- Seguir el progreso con el comando
/tasks
La generación se paraleliza entre varios agentes, lo que permite cubrir varios módulos simultáneamente. El caso de uso principal son proyectos existentes sin cobertura de tests — Copilot CLI puede generar una suite completa sin salir del entorno terminal.
OpenAI — gpt-realtime-1.5 y gpt-realtime-mini en disponibilidad general
27 de marzo — OpenAI anunció la disponibilidad general (General Availability) de los nuevos modelos realtime a través de la Realtime API. La documentación de modelos lista ahora:
| Modelo | Posicionamiento |
|---|---|
gpt-realtime-1.5 | Mejor modelo vocal para interacciones de audio bidireccionales |
gpt-realtime-mini | Versión económica del modelo realtime |
Estos modelos suceden a la antigua denominación gpt-4o-realtime-preview del periodo beta. La Realtime API permite interacciones de voz bidireccionales (audio de entrada y salida) en tiempo real vía WebRTC, WebSocket o SIP. La demo presentada por @OpenAIDevs muestra un conserje médico para una clínica en Singapur capaz de recabar información y reservar citas de forma natural.
Google DeepMind — Toolkit para medir la manipulación por IA
26 de marzo — Google DeepMind publicó los resultados de un estudio empírico a gran escala sobre la manipulación por IA, basado en 10 000 personas. El estudio identifica los ámbitos donde los modelos ejercen una influencia significativa (ámbito financiero, entre otros) y aquellos donde las salvaguardas existentes bloquean eficazmente los consejos falsos (ámbito médico).
Google DeepMind desarrolló un toolkit de medición de la manipulación por IA — el primero de su tipo validado empíricamente — para cuantificar cómo puede producirse la manipulación. El estudio identifica tácticas de riesgo como el uso del miedo como palanca.
“We’ve built an empirically validated, first-of-its-kind toolkit to measure AI manipulation in the real world — to better understand how it can occur and help protect people.”
🇪🇸 Hemos desarrollado un toolkit para medir la manipulación por IA en el mundo real, validado empíricamente y el primero de su tipo — para entender mejor cómo puede producirse y proteger a los usuarios. — @GoogleDeepMind en X
Google Translate Live — Traducción en tiempo real en iOS
27 de marzo — Google amplió Google Translate Live con soporte para auriculares en iOS, con un despliegue en curso hacia más países. La funcionalidad, previamente disponible solo en Android, permite traducción en tiempo real en 70+ idiomas mediante auriculares Bluetooth o por cable.
MedGemma Impact Challenge — Cuatro ganadores, 850+ equipos
26 de marzo — Google anunció los ganadores del MedGemma Impact Challenge, una competición que movilizó a más de 850 equipos de desarrolladores para construir aplicaciones de salud con MedGemma 1.5 (el modelo médico abierto de Google).
Ganadores principales:
| Puesto | Proyecto | Descripción |
|---|---|---|
| 1º | EpiCast | Vigilancia epidemiológica para los países de la CEDEAO — traduce observaciones clínicas en señales IDSR estandarizadas por la OMS |
| 2º | Sunny | Detección de signos de cáncer de piel vía móvil, informes estructurados con privacidad preservada |
| 3º | FieldScreen AI | Detección de tuberculosis offline: análisis de radiografías torácicas y audio de tos |
| 4º | Tracer | Prevención de errores médicos: extrae las hipótesis de las notas de los médicos y las confronta con los resultados de las pruebas |
Se otorgaron premios especiales a proyectos de Edge AI y flujos de trabajo agentic, entre ellos ClinicDX (diagnósticos integrados en OpenMRS para el África subsahariana, 160+ guías OMS/MSF, completamente offline).
🔗 Blog Google MedGemma Impact Challenge
Runway — Ad Concepter App y concurso de 100 000 $
27 de marzo — Runway lanzó la Ad Concepter App, una herramienta de creación publicitaria con IA. A partir de un prompt, una imagen de referencia y un visual de producto, la app genera conceptos, composiciones y pasos narrativos (story beats) para anuncios. La herramienta está disponible de inmediato en la aplicación web.
Runway lanza simultáneamente el Big Ad Contest (#RunwayBigAdContest) con premios de hasta 100 000 $ para promover la adopción de la herramienta.
Pika — AI Selves en beta pública
26 de marzo — Pika abrió las Pika AI Selves en beta pública. Anunciada en febrero, esta funcionalidad permite a cada usuario crear una extensión agénica de sí mismo — un «AI Self» con memoria persistente (incluyendo detalles personales como alergias alimentarias), capaz de actuar autónomamente en conversaciones de grupo, crear videojuegos o enviar fotos.
El acceso es universal vía pika.me (web) y la nueva app iOS. Pika posiciona esta funcionalidad más allá de la mera generación de video, compitiendo con los agentes IA personales.
Breves
Awesome GitHub Copilot — 27 de marzo — El proyecto comunitario «Awesome GitHub Copilot» migra a un nuevo sitio dedicado awesome-copilot.github.com con búsqueda de texto completo, Learning Hub e instalación en un clic para Copilot CLI y VS Code. 🔗 Tuit GitHub
NotebookLM notificaciones push — 27 de marzo — NotebookLM permite ahora salir de la página durante una generación prolongada y recibir una notificación push móvil cuando la generación termine. 🔗 Tuit NotebookLM
Qué significa esto
Luma Uni-1 marca un cambio de paradigma en la generación visual: en lugar de optimizar la correspondencia estadística de píxeles, el modelo integra razonamiento espacial durante la propia generación. Si se confirma en el uso, esto cambia la manera en que las herramientas creativas pueden gestionar la coherencia de escena y las instrucciones complejas.
El despliegue Perplexity × Samsung puede ser el anuncio de mayor impacto práctico de la semana: mil millones de dispositivos es una distribución masiva para las capacidades de búsqueda y razonamiento de Perplexity. También confirma que las APIs de IA especializadas (búsqueda, razonamiento, orquestación multi-pestaña) se han convertido en componentes de infraestructura para los fabricantes de hardware.
En herramientas para desarrolladores, Claude Code v2.1.86 y GitHub Copilot CLI avanzan en dos ejes distintos: Claude Code consolida la fiabilidad (correcciones para sesiones largas, MCP, VCS menos comunes), mientras que Copilot CLI empuja hacia la automatización agénica (generación de tests por flota de agentes). Ambas evoluciones reflejan la madurez creciente de los asistentes de desarrollo más allá del autocompletado.
Fuentes
- Luma AI Uni-1 — Tweet annonce
- Perplexity APIs + Samsung Browsing Assist — Blog officiel
- Perplexity × Samsung — Tweet
- Claude Code Changelog
- GitHub Copilot CLI — Tests unitaires — Tweet
- OpenAI gpt-realtime-1.5 — Tweet @OpenAIDevs
- Realtime API docs OpenAI
- Google DeepMind — Toolkit manipulation IA — Tweet
- Google Translate Live iOS — Tweet @GoogleAI
- MedGemma Impact Challenge — Blog Google
- Runway Ad Concepter — Tweet
- Pika AI Selves beta — Tweet
- Awesome GitHub Copilot — Tweet
Este documento ha sido traducido de la versión fr al idioma es usando el modelo gpt-5-mini. Para más información sobre el proceso de traducción, consulte https://gitlab.com/jls42/ai-powered-markdown-translator