Rechercher

Luma Uni-1 pense et génère des pixels, Perplexity sur 1Md appareils Samsung, Claude Code v2.1.86

Luma Uni-1 pense et génère des pixels, Perplexity sur 1Md appareils Samsung, Claude Code v2.1.86

Luma AI lance Uni-1, un modèle qui fusionne raisonnement et génération de pixels en une seule passe, cumulant 6,1 millions de vues en quelques jours. Pendant ce temps, Perplexity déploie ses API dans Samsung Browsing Assist sur plus d’un milliard d’appareils, Claude Code v2.1.86 arrive avec une quinzaine de correctifs, et GitHub Copilot CLI introduit la génération de tests unitaires par agents en autopilot.


Luma Uni-1 — Raisonnement et génération de pixels unifiés

23 mars — Luma AI a annoncé Uni-1, un modèle qu’elle décrit comme « un nouveau type de modèle qui pense et génère des pixels simultanément ». Contrairement aux modèles de diffusion classiques qui génèrent d’abord une représentation latente puis la décodent, Uni-1 fusionne le raisonnement et la génération dans un seul processus.

L’annonce a capté l’attention avec 6,1 millions de vues, 4 000 likes et plus d’un millier de repartages — des chiffres inhabituels pour une annonce technique dans la génération d’images.

Architecture et positionnement :

CapacitéDescription
Raisonnement spatialComprend et complète les scènes avec cohérence de perspective et d’occlusion
Raisonnement de bon sensInférence de l’intention de la scène pour guider la génération
Transformation guidéeModifications pilotées par la plausibilité physique, pas seulement la correspondance de pixels
Intelligence unifiéeCompréhension, directives et génération dans un seul passage (unified pass)

Luma positionne Uni-1 avec la formule « Less artificial. More intelligent. » — signalant une rupture avec les générateurs d’images fondés sur la correspondance statistique de patterns visuels. Le modèle est présenté comme la base des futurs « Creative Agents » de Luma, potentiellement le moteur de la prochaine génération de Dream Machine.

Uni-1 est disponible immédiatement sur lumalabs.ai/app.

“A new kind of model that thinks and generates pixels at the same time.”

🇫🇷 Un nouveau type de modèle qui pense et génère des pixels simultanément.@LumaLabsAI sur X

🔗 Annonce Luma Uni-1


Perplexity alimente Samsung Browsing Assist sur 1 milliard d’appareils

26 mars — Samsung a lancé Browsing Assist, un assistant IA conversationnel intégré nativement dans Samsung Browser sur les appareils Galaxy Android et les PC Windows. Derrière la fonctionnalité : les API de Perplexity, déployées sur une portée sans précédent de plus d’un milliard d’appareils Samsung dans le monde.

Ce lancement consolide un partenariat déjà en place : Perplexity alimente deux des trois assistants intégrés au Galaxy S26 — l’assistant natif Perplexity et Bixby, qui utilise les API Perplexity pour la recherche web et le raisonnement. Avec Browsing Assist, Perplexity passe de l’assistant conversationnel à la couche IA du navigateur lui-même.

Capacités de Browsing Assist :

FonctionnalitéDescription
Réponses sourcéesRésultats en temps réel pendant la navigation
Résumé de pagesY compris contenu authentifié (pages derrière connexion)
Recherche dans l’historiqueEn langage naturel
Gestion conversationnelleOuvrir, fermer, naviguer entre onglets par la parole ou le texte
Actions multi-ongletsOpérer simultanément sur plusieurs onglets ouverts
Synchronisation téléphone → PCReprendre une conversation démarrée sur mobile

Infrastructure : Browsing Assist fonctionne sur un cluster Perplexity dédié à locataire unique (single-tenant), avec rétention nulle des données sur toutes les entrées API. Le point de terminaison a été conçu sur mesure pour la rapidité et l’échelle requises par Samsung.

Perplexity note que les capacités déployées chez Samsung — recherche, raisonnement, orchestration multi-onglets — sont exactement celles sur lesquelles son navigateur Comet est construit. Ce déploiement représente une validation à grande échelle de la stack technique de Perplexity.

Disponibilité : États-Unis et Corée du Sud au lancement ; autres régions à venir. Les mêmes capacités sont accessibles aux développeurs via la Search API, l’Embeddings API et l’Agent API de Perplexity.

🔗 Blog officiel Perplexity


Claude Code v2.1.86 — Correctifs majeurs et support VCS Jujutsu/Sapling

27 mars — Anthropic a publié Claude Code v2.1.86, une version particulièrement dense côté corrections. La mise à jour apporte une quinzaine de corrections de bugs et plusieurs améliorations de performances.

Principales améliorations :

CatégorieChangement
APIHeader X-Claude-Code-Session-Id pour agréger les requêtes par session côté proxy
VCSExclusion de .jj (Jujutsu) et .sl (Sapling) dans Grep et autocomplétion
Cache MCPDélai démarrage réduit de 5s à 30s (cache keychain macOS)
PerformancesTaux de cache amélioré sur Bedrock, Vertex et Foundry
TokensRéduction overhead sur mentions @fichier (plus de JSON-escape du contenu brut)
UX mémoireNoms de fichiers mémoire cliquables dans la notice « Saved N memories »
SkillsDescriptions plafonnées à 250 caractères ; menu /skills trié alphabétiquement
Read toolFormat numéros de ligne compact, déduplication des re-lectures identiques

Corrections de bugs notables : --resume échouait sur sessions créées avant v2.1.85 ; Write/Edit/Read échouait sur fichiers hors racine projet avec skills conditionnels ; crash mémoire potentiel avec /feedback sur sessions longues ; mode --bare perdait les outils MCP ; le raccourci de copie d’URL OAuth ne copiait que ~20 caractères au lieu de l’URL complète ; scripts plugins officiels marketplace échouaient avec « Permission denied » sur macOS/Linux depuis v2.1.83.

🔗 Changelog Claude Code


GitHub Copilot CLI — Tests unitaires par agents en autopilot

28 mars — GitHub a annoncé une nouvelle capacité de Copilot CLI : générer automatiquement une suite de tests unitaires complète directement depuis le terminal, en combinant le mode plan (plan mode) avec une flotte d’agents en mode autopilot.

Workflow :

  1. Activer le mode plan avec Shift-Tab dans le terminal
  2. Lancer une flotte d’agents en autopilot
  3. Suivre la progression avec la commande /tasks

La génération est parallélisée entre plusieurs agents, ce qui permet de couvrir plusieurs modules simultanément. Le cas d’usage principal est les projets existants sans couverture de tests — Copilot CLI peut générer une suite complète sans quitter l’environnement terminal.

🔗 Tweet GitHub Copilot CLI


OpenAI — gpt-realtime-1.5 et gpt-realtime-mini en disponibilité générale

27 mars — OpenAI a annoncé la disponibilité générale (General Availability) des nouveaux modèles réaltime via la Realtime API. La documentation des modèles liste désormais :

ModèlePositionnement
gpt-realtime-1.5Meilleur modèle vocal pour interactions audio bidirectionnelles
gpt-realtime-miniVersion économique du modèle réaltime

Ces modèles succèdent à l’ancienne dénomination gpt-4o-realtime-preview de la période bêta. La Realtime API permet des interactions vocales bidirectionnelles (audio en entrée et sortie) en temps réel via WebRTC, WebSocket ou SIP. La démo présentée par @OpenAIDevs illustre un concierge médical pour une clinique à Singapour capable de collecter des informations et réserver des rendez-vous naturellement.

🔗 Tweet @OpenAIDevs


Google DeepMind — Toolkit de mesure de la manipulation IA

26 mars — Google DeepMind a publié les résultats d’une étude empirique de grande échelle sur la manipulation par les IA, portant sur 10 000 personnes. L’étude identifie les domaines où les modèles exercent une influence significative (domaine financier notamment) et ceux où les garde-fous existants bloquent efficacement les faux conseils (domaine médical).

Google DeepMind a développé un toolkit de mesure de la manipulation IA — premier du genre validé empiriquement — pour quantifier comment la manipulation peut se produire. L’étude identifie des tactiques à risque comme l’utilisation de la peur comme levier.

“We’ve built an empirically validated, first-of-its-kind toolkit to measure AI manipulation in the real world — to better understand how it can occur and help protect people.”

🇫🇷 Nous avons développé un toolkit de mesure de la manipulation IA dans le monde réel, validé empiriquement et le premier en son genre — pour mieux comprendre comment elle peut se produire et protéger les utilisateurs.@GoogleDeepMind sur X

🔗 Tweet Google DeepMind


Google Translate Live — Traduction temps réel sur iOS

27 mars — Google a étendu Google Translate Live avec écouteurs à iOS, avec un déploiement en cours vers davantage de pays. La fonctionnalité, précédemment disponible sur Android uniquement, permet une traduction en temps réel dans 70+ langues via des écouteurs Bluetooth ou filaires.

🔗 Tweet @GoogleAI


MedGemma Impact Challenge — Quatre lauréats, 850+ équipes

26 mars — Google a annoncé les lauréats du MedGemma Impact Challenge, une compétition qui a mobilisé 850+ équipes de développeurs pour construire des applications de santé avec MedGemma 1.5 (le modèle médical open de Google).

Lauréats principaux :

RangProjetDescription
1erEpiCastSurveillance épidémiologique pour les pays CEDEAO — traduit les observations cliniques en signaux IDSR standardisés OMS
2eSunnyDétection signes de cancer de la peau via mobile, rapports structurés avec confidentialité préservée
3eFieldScreen AIDépistage tuberculose hors-ligne : analyse radios thoraciques et audio de toux
4eTracerPrévention erreurs médicales : extrait les hypothèses des notes médecins et les confronte aux résultats de tests

Des prix spéciaux ont été attribués à des projets Edge AI et agentic workflow, dont ClinicDX (diagnostics intégrés dans OpenMRS pour l’Afrique sub-saharienne, 160+ guides OMS/MSF, entièrement hors-ligne).

🔗 Blog Google MedGemma Impact Challenge


Runway — Ad Concepter App et concours 100 000 $

27 mars — Runway a lancé l’Ad Concepter App, un outil de création publicitaire IA. À partir d’un prompt, d’une image de référence et d’un visuel produit, l’app génère des concepts, compositions et étapes narratives (story beats) pour des publicités. L’outil est disponible immédiatement sur l’application web.

Runway lance simultanément le Big Ad Contest (#RunwayBigAdContest) avec des prix jusqu’à 100 000 $ pour promouvoir l’adoption de l’outil.

🔗 Tweet Runway


Pika — AI Selves en bêta publique

26 mars — Pika a ouvert les Pika AI Selves en bêta publique. Annoncée en février, cette fonctionnalité permet à chaque utilisateur de créer une extension agentique d’eux-mêmes — un « AI Self » avec mémoire persistante (y compris des détails personnels comme les allergies alimentaires), capable d’agir de façon autonome dans des conversations de groupe, de créer des jeux vidéo ou d’envoyer des photos.

L’accès est universel via pika.me (web) et la nouvelle app iOS. Pika positionne cette fonctionnalité au-delà de la génération vidéo pure, entrant en compétition avec les agents IA personnels.

🔗 Tweet Pika Labs


Brèves

Awesome GitHub Copilot — 27 mars — Le projet communautaire « Awesome GitHub Copilot » migre vers un nouveau site dédié awesome-copilot.github.com avec recherche plein texte, Learning Hub et installation en un clic pour Copilot CLI et VS Code. 🔗 Tweet GitHub

NotebookLM notifications push — 27 mars — NotebookLM permet désormais de quitter la page pendant une génération longue et de recevoir une notification push mobile une fois la génération terminée. 🔗 Tweet NotebookLM


Ce que ça signifie

Luma Uni-1 marque un changement de paradigme dans la génération visuelle : au lieu d’optimiser la correspondance statistique de pixels, le modèle intègre un raisonnement spatial pendant la génération elle-même. Si cela tient à l’usage, cela change la manière dont les outils créatifs peuvent gérer la cohérence de scène et les instructions complexes.

Le déploiement Perplexity × Samsung est peut-être l’annonce à plus fort impact pratique de la semaine : un milliard d’appareils, c’est une distribution massive pour les capacités de recherche et de raisonnement de Perplexity. C’est aussi la confirmation que les APIs IA spécialisées (recherche, raisonnement, orchestration multi-onglets) sont devenues des composants d’infrastructure pour les fabricants de matériel.

Côté outils développeurs, Claude Code v2.1.86 et GitHub Copilot CLI avancent sur deux axes différents : Claude Code consolide la fiabilité (correctifs sur les sessions longues, les MCP, les VCS moins courants), tandis que Copilot CLI pousse vers l’automatisation agentic (génération de tests par flotte d’agents). Les deux évolutions reflètent la maturité croissante des assistants de développement au-delà de l’autocomplétion.


Sources