Buscar

Luma Uni-1 piensa y genera píxeles, Perplexity en 1Md dispositivos Samsung, Claude Code v2.1.86

Luma Uni-1 piensa y genera píxeles, Perplexity en 1Md dispositivos Samsung, Claude Code v2.1.86

Luma AI lanza Uni-1, un modelo que fusiona razonamiento y generación de píxeles en una sola pasada, acumulando 6,1 millones de visualizaciones en pocos días. Mientras tanto, Perplexity despliega sus API en Samsung Browsing Assist en más de mil millones de dispositivos, Claude Code v2.1.86 llega con una quincena de correcciones, y GitHub Copilot CLI introduce la generación de tests unitarios mediante agentes en autopilot.


Luma Uni-1 — Razonamiento y generación de píxeles unificados

23 de marzo — Luma AI anunció Uni-1, un modelo que describe como «un nuevo tipo de modelo que piensa y genera píxeles simultáneamente». A diferencia de los modelos de difusión clásicos que primero generan una representación latente y luego la decodifican, Uni-1 fusiona el razonamiento y la generación en un único proceso.

El anuncio atrajo la atención con 6,1 millones de visualizaciones, 4 000 likes y más de un millar de compartidos — cifras inusuales para un anuncio técnico en generación de imágenes.

Arquitectura y posicionamiento:

CapacidadDescripción
Razonamiento espacialComprende y completa escenas con coherencia de perspectiva y oclusión
Razonamiento de sentido comúnInferencia de la intención de la escena para guiar la generación
Transformación guiadaModificaciones dirigidas por la plausibilidad física, no solo por la correspondencia de píxeles
Inteligencia unificadaComprensión, directrices y generación en una sola pasada (unified pass)

Luma posiciona Uni-1 con la fórmula «Less artificial. More intelligent.» — señalando una ruptura con los generadores de imágenes basados en la correspondencia estadística de patrones visuales. El modelo se presenta como la base de los futuros «Creative Agents» de Luma, potencialmente el motor de la próxima generación de Dream Machine.

Uni-1 está disponible de inmediato en lumalabs.ai/app.

“A new kind of model that thinks and generates pixels at the same time.”

🇪🇸 Un nuevo tipo de modelo que piensa y genera píxeles simultáneamente.@LumaLabsAI en X

🔗 Anuncio Luma Uni-1


Perplexity alimenta Samsung Browsing Assist en 1 000 millones de dispositivos

26 de marzo — Samsung lanzó Browsing Assist, un asistente conversacional de IA integrado de forma nativa en Samsung Browser en dispositivos Galaxy Android y en PCs con Windows. Detrás de la funcionalidad: las API de Perplexity, desplegadas en un alcance sin precedentes de más de mil millones de dispositivos Samsung en todo el mundo.

Este lanzamiento consolida una asociación ya existente: Perplexity alimenta dos de los tres asistentes integrados en el Galaxy S26 — el asistente nativo Perplexity y Bixby, que utiliza las API de Perplexity para la búsqueda web y el razonamiento. Con Browsing Assist, Perplexity pasa de ser un asistente conversacional a la capa de IA del propio navegador.

Capacidades de Browsing Assist:

FuncionalidadDescripción
Respuestas con fuentesResultados en tiempo real durante la navegación
Resumen de páginasIncluye contenido autenticado (páginas tras inicio de sesión)
Búsqueda en el historialEn lenguaje natural
Gestión conversacionalAbrir, cerrar, navegar entre pestañas por voz o texto
Acciones multi-pestañaOperar simultáneamente en varias pestañas abiertas
Sincronización teléfono → PCRetomar una conversación iniciada en móvil

Infraestructura: Browsing Assist funciona en un clúster Perplexity dedicado a un solo tenant (single-tenant), con retención nula de datos en todas las entradas API. El endpoint fue diseñado a medida para la rapidez y la escala requeridas por Samsung.

Perplexity señala que las capacidades desplegadas en Samsung — búsqueda, razonamiento, orquestación multi-pestaña — son exactamente aquellas sobre las que se construye su navegador Comet. Este despliegue representa una validación a gran escala de la stack técnica de Perplexity.

Disponibilidad: Estados Unidos y Corea del Sur en el lanzamiento; otras regiones próximamente. Las mismas capacidades están accesibles para desarrolladores vía la Search API, la Embeddings API y la Agent API de Perplexity.

🔗 Blog oficial Perplexity


Claude Code v2.1.86 — Correcciones importantes y soporte VCS Jujutsu/Sapling

27 de marzo — Anthropic publicó Claude Code v2.1.86, una versión especialmente densa en correcciones. La actualización aporta una quincena de correcciones de bugs y varias mejoras de rendimiento.

Principales mejoras:

CategoríaCambio
APIHeader X-Claude-Code-Session-Id para agregar las peticiones por sesión en el proxy
VCSExclusión de .jj (Jujutsu) y .sl (Sapling) en Grep y autocompletado
Cache MCPTiempo de inicio reducido de 5s a 30s (cache keychain macOS)
RendimientoTasa de cache mejorada en Bedrock, Vertex y Foundry
TokensReducción del overhead en menciones @fichier (ya no hay JSON-escape del contenido bruto)
UX memoriaNombres de archivos de memoria clicables en la notificación «Saved N memories»
SkillsDescripciones limitadas a 250 caracteres; menú /skills ordenado alfabéticamente
Read toolFormato de números de línea compacto, desduplicación de relecturas idénticas

Correcciones de bugs notables: --resume fallaba en sesiones creadas antes de v2.1.85; Write/Edit/Read fallaba en archivos fuera de la raíz del proyecto con skills condicionales; posible crash por memoria con /feedback en sesiones largas; el modo --bare perdía las herramientas MCP; el atajo de copia de URL OAuth solo copiaba ~20 caracteres en lugar de la URL completa; scripts de plugins oficiales del marketplace fallaban con «Permission denied» en macOS/Linux desde v2.1.83.

🔗 Changelog Claude Code


GitHub Copilot CLI — Tests unitarios por agentes en autopilot

28 de marzo — GitHub anunció una nueva capacidad de Copilot CLI: generar automáticamente una suite completa de tests unitarios directamente desde el terminal, combinando el modo plan (plan mode) con una flota de agentes en modo autopilot.

Workflow:

  1. Activar el modo plan con Shift-Tab en el terminal
  2. Lanzar una flota de agentes en autopilot
  3. Seguir el progreso con el comando /tasks

La generación se paraleliza entre varios agentes, lo que permite cubrir varios módulos simultáneamente. El caso de uso principal son proyectos existentes sin cobertura de tests — Copilot CLI puede generar una suite completa sin salir del entorno terminal.

🔗 Tuit GitHub Copilot CLI


OpenAI — gpt-realtime-1.5 y gpt-realtime-mini en disponibilidad general

27 de marzo — OpenAI anunció la disponibilidad general (General Availability) de los nuevos modelos realtime a través de la Realtime API. La documentación de modelos lista ahora:

ModeloPosicionamiento
gpt-realtime-1.5Mejor modelo vocal para interacciones de audio bidireccionales
gpt-realtime-miniVersión económica del modelo realtime

Estos modelos suceden a la antigua denominación gpt-4o-realtime-preview del periodo beta. La Realtime API permite interacciones de voz bidireccionales (audio de entrada y salida) en tiempo real vía WebRTC, WebSocket o SIP. La demo presentada por @OpenAIDevs muestra un conserje médico para una clínica en Singapur capaz de recabar información y reservar citas de forma natural.

🔗 Tuit @OpenAIDevs


Google DeepMind — Toolkit para medir la manipulación por IA

26 de marzo — Google DeepMind publicó los resultados de un estudio empírico a gran escala sobre la manipulación por IA, basado en 10 000 personas. El estudio identifica los ámbitos donde los modelos ejercen una influencia significativa (ámbito financiero, entre otros) y aquellos donde las salvaguardas existentes bloquean eficazmente los consejos falsos (ámbito médico).

Google DeepMind desarrolló un toolkit de medición de la manipulación por IA — el primero de su tipo validado empíricamente — para cuantificar cómo puede producirse la manipulación. El estudio identifica tácticas de riesgo como el uso del miedo como palanca.

“We’ve built an empirically validated, first-of-its-kind toolkit to measure AI manipulation in the real world — to better understand how it can occur and help protect people.”

🇪🇸 Hemos desarrollado un toolkit para medir la manipulación por IA en el mundo real, validado empíricamente y el primero de su tipo — para entender mejor cómo puede producirse y proteger a los usuarios.@GoogleDeepMind en X

🔗 Tuit Google DeepMind


Google Translate Live — Traducción en tiempo real en iOS

27 de marzo — Google amplió Google Translate Live con soporte para auriculares en iOS, con un despliegue en curso hacia más países. La funcionalidad, previamente disponible solo en Android, permite traducción en tiempo real en 70+ idiomas mediante auriculares Bluetooth o por cable.

🔗 Tuit @GoogleAI


MedGemma Impact Challenge — Cuatro ganadores, 850+ equipos

26 de marzo — Google anunció los ganadores del MedGemma Impact Challenge, una competición que movilizó a más de 850 equipos de desarrolladores para construir aplicaciones de salud con MedGemma 1.5 (el modelo médico abierto de Google).

Ganadores principales:

PuestoProyectoDescripción
EpiCastVigilancia epidemiológica para los países de la CEDEAO — traduce observaciones clínicas en señales IDSR estandarizadas por la OMS
SunnyDetección de signos de cáncer de piel vía móvil, informes estructurados con privacidad preservada
FieldScreen AIDetección de tuberculosis offline: análisis de radiografías torácicas y audio de tos
TracerPrevención de errores médicos: extrae las hipótesis de las notas de los médicos y las confronta con los resultados de las pruebas

Se otorgaron premios especiales a proyectos de Edge AI y flujos de trabajo agentic, entre ellos ClinicDX (diagnósticos integrados en OpenMRS para el África subsahariana, 160+ guías OMS/MSF, completamente offline).

🔗 Blog Google MedGemma Impact Challenge


Runway — Ad Concepter App y concurso de 100 000 $

27 de marzo — Runway lanzó la Ad Concepter App, una herramienta de creación publicitaria con IA. A partir de un prompt, una imagen de referencia y un visual de producto, la app genera conceptos, composiciones y pasos narrativos (story beats) para anuncios. La herramienta está disponible de inmediato en la aplicación web.

Runway lanza simultáneamente el Big Ad Contest (#RunwayBigAdContest) con premios de hasta 100 000 $ para promover la adopción de la herramienta.

🔗 Tuit Runway


Pika — AI Selves en beta pública

26 de marzo — Pika abrió las Pika AI Selves en beta pública. Anunciada en febrero, esta funcionalidad permite a cada usuario crear una extensión agénica de sí mismo — un «AI Self» con memoria persistente (incluyendo detalles personales como alergias alimentarias), capaz de actuar autónomamente en conversaciones de grupo, crear videojuegos o enviar fotos.

El acceso es universal vía pika.me (web) y la nueva app iOS. Pika posiciona esta funcionalidad más allá de la mera generación de video, compitiendo con los agentes IA personales.

🔗 Tuit Pika Labs


Breves

Awesome GitHub Copilot — 27 de marzo — El proyecto comunitario «Awesome GitHub Copilot» migra a un nuevo sitio dedicado awesome-copilot.github.com con búsqueda de texto completo, Learning Hub e instalación en un clic para Copilot CLI y VS Code. 🔗 Tuit GitHub

NotebookLM notificaciones push — 27 de marzo — NotebookLM permite ahora salir de la página durante una generación prolongada y recibir una notificación push móvil cuando la generación termine. 🔗 Tuit NotebookLM


Qué significa esto

Luma Uni-1 marca un cambio de paradigma en la generación visual: en lugar de optimizar la correspondencia estadística de píxeles, el modelo integra razonamiento espacial durante la propia generación. Si se confirma en el uso, esto cambia la manera en que las herramientas creativas pueden gestionar la coherencia de escena y las instrucciones complejas.

El despliegue Perplexity × Samsung puede ser el anuncio de mayor impacto práctico de la semana: mil millones de dispositivos es una distribución masiva para las capacidades de búsqueda y razonamiento de Perplexity. También confirma que las APIs de IA especializadas (búsqueda, razonamiento, orquestación multi-pestaña) se han convertido en componentes de infraestructura para los fabricantes de hardware.

En herramientas para desarrolladores, Claude Code v2.1.86 y GitHub Copilot CLI avanzan en dos ejes distintos: Claude Code consolida la fiabilidad (correcciones para sesiones largas, MCP, VCS menos comunes), mientras que Copilot CLI empuja hacia la automatización agénica (generación de tests por flota de agentes). Ambas evoluciones reflejan la madurez creciente de los asistentes de desarrollo más allá del autocompletado.


Fuentes

Este documento ha sido traducido de la versión fr al idioma es usando el modelo gpt-5-mini. Para más información sobre el proceso de traducción, consulte https://gitlab.com/jls42/ai-powered-markdown-translator