Luma AI lance Uni-1, un modèle qui fusionne raisonnement et génération de pixels en une seule passe, cumulant 6,1 millions de vues en quelques jours. Pendant ce temps, Perplexity déploie ses API dans Samsung Browsing Assist sur plus d’un milliard d’appareils, Claude Code v2.1.86 arrive avec une quinzaine de correctifs, et GitHub Copilot CLI introduit la génération de tests unitaires par agents en autopilot.
Luma Uni-1 — Raisonnement et génération de pixels unifiés
23 mars — Luma AI a annoncé Uni-1, un modèle qu’elle décrit comme « un nouveau type de modèle qui pense et génère des pixels simultanément ». Contrairement aux modèles de diffusion classiques qui génèrent d’abord une représentation latente puis la décodent, Uni-1 fusionne le raisonnement et la génération dans un seul processus.
L’annonce a capté l’attention avec 6,1 millions de vues, 4 000 likes et plus d’un millier de repartages — des chiffres inhabituels pour une annonce technique dans la génération d’images.
Architecture et positionnement :
| Capacité | Description |
|---|---|
| Raisonnement spatial | Comprend et complète les scènes avec cohérence de perspective et d’occlusion |
| Raisonnement de bon sens | Inférence de l’intention de la scène pour guider la génération |
| Transformation guidée | Modifications pilotées par la plausibilité physique, pas seulement la correspondance de pixels |
| Intelligence unifiée | Compréhension, directives et génération dans un seul passage (unified pass) |
Luma positionne Uni-1 avec la formule « Less artificial. More intelligent. » — signalant une rupture avec les générateurs d’images fondés sur la correspondance statistique de patterns visuels. Le modèle est présenté comme la base des futurs « Creative Agents » de Luma, potentiellement le moteur de la prochaine génération de Dream Machine.
Uni-1 est disponible immédiatement sur lumalabs.ai/app.
“A new kind of model that thinks and generates pixels at the same time.”
🇫🇷 Un nouveau type de modèle qui pense et génère des pixels simultanément. — @LumaLabsAI sur X
Perplexity alimente Samsung Browsing Assist sur 1 milliard d’appareils
26 mars — Samsung a lancé Browsing Assist, un assistant IA conversationnel intégré nativement dans Samsung Browser sur les appareils Galaxy Android et les PC Windows. Derrière la fonctionnalité : les API de Perplexity, déployées sur une portée sans précédent de plus d’un milliard d’appareils Samsung dans le monde.
Ce lancement consolide un partenariat déjà en place : Perplexity alimente deux des trois assistants intégrés au Galaxy S26 — l’assistant natif Perplexity et Bixby, qui utilise les API Perplexity pour la recherche web et le raisonnement. Avec Browsing Assist, Perplexity passe de l’assistant conversationnel à la couche IA du navigateur lui-même.
Capacités de Browsing Assist :
| Fonctionnalité | Description |
|---|---|
| Réponses sourcées | Résultats en temps réel pendant la navigation |
| Résumé de pages | Y compris contenu authentifié (pages derrière connexion) |
| Recherche dans l’historique | En langage naturel |
| Gestion conversationnelle | Ouvrir, fermer, naviguer entre onglets par la parole ou le texte |
| Actions multi-onglets | Opérer simultanément sur plusieurs onglets ouverts |
| Synchronisation téléphone → PC | Reprendre une conversation démarrée sur mobile |
Infrastructure : Browsing Assist fonctionne sur un cluster Perplexity dédié à locataire unique (single-tenant), avec rétention nulle des données sur toutes les entrées API. Le point de terminaison a été conçu sur mesure pour la rapidité et l’échelle requises par Samsung.
Perplexity note que les capacités déployées chez Samsung — recherche, raisonnement, orchestration multi-onglets — sont exactement celles sur lesquelles son navigateur Comet est construit. Ce déploiement représente une validation à grande échelle de la stack technique de Perplexity.
Disponibilité : États-Unis et Corée du Sud au lancement ; autres régions à venir. Les mêmes capacités sont accessibles aux développeurs via la Search API, l’Embeddings API et l’Agent API de Perplexity.
Claude Code v2.1.86 — Correctifs majeurs et support VCS Jujutsu/Sapling
27 mars — Anthropic a publié Claude Code v2.1.86, une version particulièrement dense côté corrections. La mise à jour apporte une quinzaine de corrections de bugs et plusieurs améliorations de performances.
Principales améliorations :
| Catégorie | Changement |
|---|---|
| API | Header X-Claude-Code-Session-Id pour agréger les requêtes par session côté proxy |
| VCS | Exclusion de .jj (Jujutsu) et .sl (Sapling) dans Grep et autocomplétion |
| Cache MCP | Délai démarrage réduit de 5s à 30s (cache keychain macOS) |
| Performances | Taux de cache amélioré sur Bedrock, Vertex et Foundry |
| Tokens | Réduction overhead sur mentions @fichier (plus de JSON-escape du contenu brut) |
| UX mémoire | Noms de fichiers mémoire cliquables dans la notice « Saved N memories » |
| Skills | Descriptions plafonnées à 250 caractères ; menu /skills trié alphabétiquement |
| Read tool | Format numéros de ligne compact, déduplication des re-lectures identiques |
Corrections de bugs notables : --resume échouait sur sessions créées avant v2.1.85 ; Write/Edit/Read échouait sur fichiers hors racine projet avec skills conditionnels ; crash mémoire potentiel avec /feedback sur sessions longues ; mode --bare perdait les outils MCP ; le raccourci de copie d’URL OAuth ne copiait que ~20 caractères au lieu de l’URL complète ; scripts plugins officiels marketplace échouaient avec « Permission denied » sur macOS/Linux depuis v2.1.83.
GitHub Copilot CLI — Tests unitaires par agents en autopilot
28 mars — GitHub a annoncé une nouvelle capacité de Copilot CLI : générer automatiquement une suite de tests unitaires complète directement depuis le terminal, en combinant le mode plan (plan mode) avec une flotte d’agents en mode autopilot.
Workflow :
- Activer le mode plan avec
Shift-Tabdans le terminal - Lancer une flotte d’agents en autopilot
- Suivre la progression avec la commande
/tasks
La génération est parallélisée entre plusieurs agents, ce qui permet de couvrir plusieurs modules simultanément. Le cas d’usage principal est les projets existants sans couverture de tests — Copilot CLI peut générer une suite complète sans quitter l’environnement terminal.
OpenAI — gpt-realtime-1.5 et gpt-realtime-mini en disponibilité générale
27 mars — OpenAI a annoncé la disponibilité générale (General Availability) des nouveaux modèles réaltime via la Realtime API. La documentation des modèles liste désormais :
| Modèle | Positionnement |
|---|---|
gpt-realtime-1.5 | Meilleur modèle vocal pour interactions audio bidirectionnelles |
gpt-realtime-mini | Version économique du modèle réaltime |
Ces modèles succèdent à l’ancienne dénomination gpt-4o-realtime-preview de la période bêta. La Realtime API permet des interactions vocales bidirectionnelles (audio en entrée et sortie) en temps réel via WebRTC, WebSocket ou SIP. La démo présentée par @OpenAIDevs illustre un concierge médical pour une clinique à Singapour capable de collecter des informations et réserver des rendez-vous naturellement.
Google DeepMind — Toolkit de mesure de la manipulation IA
26 mars — Google DeepMind a publié les résultats d’une étude empirique de grande échelle sur la manipulation par les IA, portant sur 10 000 personnes. L’étude identifie les domaines où les modèles exercent une influence significative (domaine financier notamment) et ceux où les garde-fous existants bloquent efficacement les faux conseils (domaine médical).
Google DeepMind a développé un toolkit de mesure de la manipulation IA — premier du genre validé empiriquement — pour quantifier comment la manipulation peut se produire. L’étude identifie des tactiques à risque comme l’utilisation de la peur comme levier.
“We’ve built an empirically validated, first-of-its-kind toolkit to measure AI manipulation in the real world — to better understand how it can occur and help protect people.”
🇫🇷 Nous avons développé un toolkit de mesure de la manipulation IA dans le monde réel, validé empiriquement et le premier en son genre — pour mieux comprendre comment elle peut se produire et protéger les utilisateurs. — @GoogleDeepMind sur X
Google Translate Live — Traduction temps réel sur iOS
27 mars — Google a étendu Google Translate Live avec écouteurs à iOS, avec un déploiement en cours vers davantage de pays. La fonctionnalité, précédemment disponible sur Android uniquement, permet une traduction en temps réel dans 70+ langues via des écouteurs Bluetooth ou filaires.
MedGemma Impact Challenge — Quatre lauréats, 850+ équipes
26 mars — Google a annoncé les lauréats du MedGemma Impact Challenge, une compétition qui a mobilisé 850+ équipes de développeurs pour construire des applications de santé avec MedGemma 1.5 (le modèle médical open de Google).
Lauréats principaux :
| Rang | Projet | Description |
|---|---|---|
| 1er | EpiCast | Surveillance épidémiologique pour les pays CEDEAO — traduit les observations cliniques en signaux IDSR standardisés OMS |
| 2e | Sunny | Détection signes de cancer de la peau via mobile, rapports structurés avec confidentialité préservée |
| 3e | FieldScreen AI | Dépistage tuberculose hors-ligne : analyse radios thoraciques et audio de toux |
| 4e | Tracer | Prévention erreurs médicales : extrait les hypothèses des notes médecins et les confronte aux résultats de tests |
Des prix spéciaux ont été attribués à des projets Edge AI et agentic workflow, dont ClinicDX (diagnostics intégrés dans OpenMRS pour l’Afrique sub-saharienne, 160+ guides OMS/MSF, entièrement hors-ligne).
🔗 Blog Google MedGemma Impact Challenge
Runway — Ad Concepter App et concours 100 000 $
27 mars — Runway a lancé l’Ad Concepter App, un outil de création publicitaire IA. À partir d’un prompt, d’une image de référence et d’un visuel produit, l’app génère des concepts, compositions et étapes narratives (story beats) pour des publicités. L’outil est disponible immédiatement sur l’application web.
Runway lance simultanément le Big Ad Contest (#RunwayBigAdContest) avec des prix jusqu’à 100 000 $ pour promouvoir l’adoption de l’outil.
Pika — AI Selves en bêta publique
26 mars — Pika a ouvert les Pika AI Selves en bêta publique. Annoncée en février, cette fonctionnalité permet à chaque utilisateur de créer une extension agentique d’eux-mêmes — un « AI Self » avec mémoire persistante (y compris des détails personnels comme les allergies alimentaires), capable d’agir de façon autonome dans des conversations de groupe, de créer des jeux vidéo ou d’envoyer des photos.
L’accès est universel via pika.me (web) et la nouvelle app iOS. Pika positionne cette fonctionnalité au-delà de la génération vidéo pure, entrant en compétition avec les agents IA personnels.
Brèves
Awesome GitHub Copilot — 27 mars — Le projet communautaire « Awesome GitHub Copilot » migre vers un nouveau site dédié awesome-copilot.github.com avec recherche plein texte, Learning Hub et installation en un clic pour Copilot CLI et VS Code. 🔗 Tweet GitHub
NotebookLM notifications push — 27 mars — NotebookLM permet désormais de quitter la page pendant une génération longue et de recevoir une notification push mobile une fois la génération terminée. 🔗 Tweet NotebookLM
Ce que ça signifie
Luma Uni-1 marque un changement de paradigme dans la génération visuelle : au lieu d’optimiser la correspondance statistique de pixels, le modèle intègre un raisonnement spatial pendant la génération elle-même. Si cela tient à l’usage, cela change la manière dont les outils créatifs peuvent gérer la cohérence de scène et les instructions complexes.
Le déploiement Perplexity × Samsung est peut-être l’annonce à plus fort impact pratique de la semaine : un milliard d’appareils, c’est une distribution massive pour les capacités de recherche et de raisonnement de Perplexity. C’est aussi la confirmation que les APIs IA spécialisées (recherche, raisonnement, orchestration multi-onglets) sont devenues des composants d’infrastructure pour les fabricants de matériel.
Côté outils développeurs, Claude Code v2.1.86 et GitHub Copilot CLI avancent sur deux axes différents : Claude Code consolide la fiabilité (correctifs sur les sessions longues, les MCP, les VCS moins courants), tandis que Copilot CLI pousse vers l’automatisation agentic (génération de tests par flotte d’agents). Les deux évolutions reflètent la maturité croissante des assistants de développement au-delà de l’autocomplétion.
Sources
- Luma AI Uni-1 — Tweet annonce
- Perplexity APIs + Samsung Browsing Assist — Blog officiel
- Perplexity × Samsung — Tweet
- Claude Code Changelog
- GitHub Copilot CLI — Tests unitaires — Tweet
- OpenAI gpt-realtime-1.5 — Tweet @OpenAIDevs
- Realtime API docs OpenAI
- Google DeepMind — Toolkit manipulation IA — Tweet
- Google Translate Live iOS — Tweet @GoogleAI
- MedGemma Impact Challenge — Blog Google
- Runway Ad Concepter — Tweet
- Pika AI Selves beta — Tweet
- Awesome GitHub Copilot — Tweet