Luma AI lanceert Uni-1, een model dat redeneren en pixelgeneratie in één enkele passage samenbrengt en binnen enkele dagen 6,1 miljoen weergaven verzamelde. Ondertussen rolt Perplexity zijn API’s uit in Samsung Browsing Assist op meer dan een miljard apparaten, Claude Code v2.1.86 komt met een vijftiental fixes, en GitHub Copilot CLI introduceert automatische generatie van unit-tests via agents.
Luma Uni-1 — Geünificeerd redeneren en pixelgeneratie
23 maart — Luma AI kondigde Uni-1 aan, een model dat het beschrijft als « un nouveau type de modèle qui pense et génère des pixels simultanément ». In tegenstelling tot klassieke diffusion-modellen die eerst een latente representatie genereren en die vervolgens decoderen, verenigt Uni-1 redeneren en generatie in één proces.
De aankondiging trok veel aandacht met 6,1 miljoen weergaven, 4.000 likes en meer dan duizend shares — ongebruikelijke cijfers voor een technische aankondiging in beeldgeneratie.
Architectuur en positionering :
| Capaciteit | Beschrijving |
|---|---|
| Ruimtelijk redeneren | Begrijpt en voltooit scènes met consistente perspectief- en occlusielogica |
| Gezond verstand redeneren | Leidt de intentie van de scène af om de generatie te sturen |
| Geleide transformaties | Wijzigingen gestuurd door fysieke plausibiliteit, niet enkel pixelmatching |
| Geünificeerde intelligentie | Begrip, instructies en generatie in één enkele passage (unified pass) |
Luma positioneert Uni-1 met de formule « Less artificial. More intelligent. » — wat een breuk signaliseert met generatoren die gebaseerd zijn op statistische patroonovereenkomst van visuele pixels. Het model wordt gepresenteerd als de basis van Luma’s toekomstige « Creative Agents », mogelijk de motor achter de volgende generatie Dream Machine.
Uni-1 is direct beschikbaar op lumalabs.ai/app.
“A new kind of model that thinks and generates pixels at the same time.”
🇳🇱 Een nieuw soort model dat tegelijkertijd nadenkt en pixels genereert. — @LumaLabsAI op X
Perplexity voedt Samsung Browsing Assist op 1 miljard apparaten
26 maart — Samsung heeft Browsing Assist gelanceerd, een conversatiegerichte AI-assistent die native geïntegreerd is in Samsung Browser op Galaxy Android-apparaten en Windows-pc’s. Achter die functie zitten de API’s van Perplexity, uitgerold op een ongeziene schaal van meer dan een miljard Samsung-apparaten wereldwijd.
Deze lancering bevestigt een bestaande samenwerking: Perplexity levert twee van de drie ingebouwde assistenten op de Galaxy S26 — de native Perplexity-assistent en Bixby, die de Perplexity API’s gebruikt voor websearch en redeneren. Met Browsing Assist verschuift Perplexity van conversatie-assistent naar de AI-laag van de browser zelf.
Mogelijkheden van Browsing Assist :
| Functionaliteit | Beschrijving |
|---|---|
| Gesourceerde antwoorden | Realtime resultaten tijdens het browsen |
| Pagina-samenvattingen | Inclusief geauthenticeerde inhoud (pagina’s achter aanmelding) |
| Zoeken in geschiedenis | In natuurlijke taal |
| Conversationeel beheer | Openen, sluiten en navigeren tussen tabs via spraak of tekst |
| Multi-tab acties | Tegelijk opereren op meerdere geopende tabbladen |
| Synchronisatie telefoon → pc | Een gesprek hervatten dat op mobiel begonnen is |
Infrastructuur : Browsing Assist draait op een dedicated single-tenant cluster van Perplexity, met nul retentie van data voor alle API-inputs. Het endpoint is op maat ontworpen voor de snelheid en schaal die Samsung vereist.
Perplexity geeft aan dat de bij Samsung uitgerolde capaciteiten — search, redeneren, multi-tab orchestratie — exact diezelfde functionaliteiten zijn waarop hun browser Comet is gebouwd. Deze uitrol is een grootschalige validatie van Perplexity’s technische stack.
Beschikbaarheid : Verenigde Staten en Zuid-Korea bij lancering; andere regio’s volgen. Dezelfde capaciteiten zijn beschikbaar voor ontwikkelaars via de Search API, de Embeddings API en de Agent API van Perplexity.
Claude Code v2.1.86 — Belangrijke fixes en ondersteuning voor VCS Jujutsu/Sapling
27 maart — Anthropic heeft Claude Code v2.1.86 uitgebracht, een release met veel bugfixes. De update brengt een vijftiental fixes en meerdere prestatieverbeteringen.
Belangrijkste verbeteringen :
| Categorie | Wijziging |
|---|---|
| API | Header X-Claude-Code-Session-Id om requests per sessie te aggregeren aan de proxy-kant |
| VCS | Uitsluiting van .jj (Jujutsu) en .sl (Sapling) in Grep en autocompletion |
| Cache MCP | Opstartvertraging gereduceerd van 5s naar 30s (keychain cache macOS) |
| Prestaties | Verbeterde cache-hit rates op Bedrock, Vertex en Foundry |
| Tokens | Overhead verminderd bij vermeldingen @fichier (geen JSON-escape meer van ruwe content) |
| UX geheugen | Klikbare bestandsnamen in de melding « Saved N memories » |
| Skills | Beschrijvingen beperkt tot 250 tekens; menu /skills alfabetisch gesorteerd |
| Read tool | Compacte lijnnummerformattering, deduplicatie van identieke herlezingen |
Opmerkelijke bugfixes : --resume faalde op sessies gemaakt vóór v2.1.85 ; Write/Edit/Read faalde op bestanden buiten de projectroot met conditionele skills ; mogelijke geheugencrash met /feedback op lange sessies ; --bare modus verloor MCP-tools ; de OAuth-URL kopieersnelkoppeling kopieerde slechts ~20 tekens in plaats van de volledige URL ; officiële marketplace plugin-scripts faalden met « Permission denied » op macOS/Linux sinds v2.1.83.
GitHub Copilot CLI — Unit-tests door agents in autopilot
28 maart — GitHub kondigde een nieuwe mogelijkheid voor Copilot CLI aan: automatisch een volledige suite unit-tests genereren rechtstreeks vanuit de terminal, door de plan mode te combineren met een vloot agents in autopilot.
Workflow :
- Activeer de plan-modus met
Shift-Tabin de terminal - Start een vloot agents in autopilot
- Volg de voortgang met de opdracht
/tasks
De generatie wordt gepaard en verdeeld over meerdere agents, waardoor meerdere modules gelijktijdig kunnen worden gedekt. Het belangrijkste gebruiksgeval is bestaande projecten zonder testcoverage — Copilot CLI kan een volledige suite genereren zonder de terminalomgeving te verlaten.
OpenAI — gpt-realtime-1.5 en gpt-realtime-mini algemeen beschikbaar
27 maart — OpenAI maakte de algemene beschikbaarheid (General Availability) bekend van nieuwe realtime-modellen via de Realtime API. De modeldocumentatie vermeldt nu :
| Model | Positionering |
|---|---|
gpt-realtime-1.5 | Beste spraakmodel voor bidirectionele audio-interacties |
gpt-realtime-mini | Economische versie van het realtime-model |
Deze modellen vervangen de oude naamgeving gpt-4o-realtime-preview uit de beta-periode. De Realtime API maakt bidirectionele spraakinteracties (audio-in en -uit) in realtime mogelijk via WebRTC, WebSocket of SIP. De demo van @OpenAIDevs toont een medisch conciërge voor een kliniek in Singapore die informatie verzamelt en afspraken natuurlijk kan inplannen.
Google DeepMind — Toolkit om AI-manipulatie te meten
26 mars — Google DeepMind publiceerde de resultaten van een grootschalige empirische studie over manipulatie door AI, uitgevoerd met 10.000 mensen. De studie identificeert domeinen waar modellen significante invloed uitoefenen (onder andere financieel) en domeinen waar bestaande safeguards effectief verkeerde adviezen blokkeren (onder andere medisch).
Google DeepMind ontwikkelde een toolkit om AI-manipulatie te meten — het eerste empirisch gevalideerde instrument in zijn soort — om te kwantificeren hoe manipulatie kan optreden. De studie wijst op risicovolle tactieken zoals het gebruik van angst als hefboom.
“We’ve built an empirically validated, first-of-its-kind toolkit to measure AI manipulation in the real world — to better understand how it can occur and help protect people.”
🇳🇱 We hebben een toolkit ontwikkeld om manipulatie door AI in de echte wereld te meten, empirisch gevalideerd en de eerste in zijn soort — om beter te begrijpen hoe het kan gebeuren en gebruikers te beschermen. — @GoogleDeepMind op X
Google Translate Live — Realtime vertaling op iOS
27 maart — Google breidde Google Translate Live met koptelefoonondersteuning uit naar iOS, met een uitrol naar meer landen. De functie, eerder alleen op Android beschikbaar, biedt realtime vertaling in 70+ talen via Bluetooth- of bedrade koptelefoons.
MedGemma Impact Challenge — Vier winnaars, 850+ teams
26 maart — Google maakte de winnaars bekend van de MedGemma Impact Challenge, een competitie die 850+ teams ontwikkelaars mobiliseerde om gezondheidsapps te bouwen met MedGemma 1.5 (het open medische model van Google).
Hoofdwinnaars :
| Rang | Project | Beschrijving |
|---|---|---|
| 1e | EpiCast | Epidemiologische surveillance voor ECOWAS-landen — vertaalt klinische observaties naar gestandaardiseerde WHO IDSR-signalen |
| 2e | Sunny | Detectie van huidkankersignalen via mobiel, gestructureerde rapporten met behoud van privacy |
| 3e | FieldScreen AI | Offline tuberculosedetectie: analyseert thoraxradiografieën en hoest-audio |
| 4e | Tracer | Preventie van medische fouten: extraheert artsenveronderstellingen uit notities en confronteert die met testresultaten |
Speciale prijzen gingen naar Edge AI-projecten en agentic workflow-oplossingen, waaronder ClinicDX (diagnostiek geïntegreerd in OpenMRS voor sub-Sahara Afrika, 160+ WHO/MSF-richtlijnen, volledig offline).
🔗 Blog MedGemma Impact Challenge van Google
Runway — Ad Concepter App en wedstrijd van $100.000
27 maart — Runway lanceerde de Ad Concepter App, een AI-tool voor advertentiecreatie. Op basis van een prompt, een referentiebeeld en een productvisual genereert de app concepten, composities en verhalende stappen (story beats) voor advertenties. De tool is direct beschikbaar op de webapp.
Tegelijkertijd start Runway de Big Ad Contest (#RunwayBigAdContest) met prijzen tot $100.000 om adoptie van de tool te stimuleren.
Pika — AI Selves in publieke bèta
26 maart — Pika opende de Pika AI Selves in publieke bèta. Aangekondigd in februari, stelt deze feature gebruikers in staat een agentachtige extensie van zichzelf te creëren — een « AI Self » met persistente geheugen (inclusief persoonlijke details zoals voedselallergieën), die autonoom kan handelen in groepsgesprekken, videogames kan maken of foto’s kan verzenden.
Toegang is universeel via pika.me (web) en de nieuwe iOS-app. Pika positioneert deze functie voorbij pure videogeneratie en concurreert zo in het veld van persoonlijke AI-agents.
Kort nieuws
Awesome GitHub Copilot — 27 maart — Het communityproject “Awesome GitHub Copilot” verhuist naar een nieuwe dedicated site awesome-copilot.github.com met full-text zoekfunctie, een Learning Hub en één-klik installatie voor Copilot CLI en VS Code. 🔗 Tweet GitHub
NotebookLM push-notificaties — 27 maart — NotebookLM staat nu toe de pagina te verlaten tijdens een lange generatie en een mobiele push-notificatie te ontvangen zodra de generatie klaar is. 🔗 Tweet NotebookLM
Wat dit betekent
Luma Uni-1 markeert een paradigmawissel in visuele generatie: in plaats van te optimaliseren voor statistische pixelovereenkomst, integreert het model ruimtelijk redeneren tijdens de generatie zelf. Als dit in de praktijk succesvol is, verandert het hoe creatieve tools scènecoherentie en complexe instructies kunnen afhandelen.
De Perplexity × Samsung-uitrol is mogelijk de meest praktisch ingrijpende aankondiging van de week: een miljard apparaten is een enorme distributie voor Perplexity’s zoek- en redeneerfuncties. Het bevestigt ook dat gespecialiseerde AI-API’s (search, reasoning, multi-tab orchestratie) ingrediënten geworden zijn van de infrastructuur voor hardwarefabrikanten.
Aan de developer-kant consolideren Claude Code v2.1.86 en GitHub Copilot CLI twee verschillende trends: Claude Code verbetert betrouwbaarheid (fixes voor lange sessies, MCP, minder courante VCS), terwijl Copilot CLI inzet op agentische automatisering (unit-testgeneratie door een vloot agents). Beide ontwikkelingen weerspiegelen de toenemende volwassenheid van development assistants voorbij eenvoudige autocompletion.
Bronnen
- Luma AI Uni-1 — Tweet aankondiging
- Perplexity APIs + Samsung Browsing Assist — Officiële blog
- Perplexity × Samsung — Tweet
- Claude Code wijzigingslog
- GitHub Copilot CLI — Unit-tests — Tweet
- OpenAI gpt-realtime-1.5 — Tweet @OpenAIDevs
- Realtime API docs OpenAI
- Google DeepMind — Toolkit AI-manipulatie — Tweet
- Google Translate Live iOS — Tweet @GoogleAI
- MedGemma Impact Challenge — Blog Google
- Runway Ad Concepter — Tweet
- Pika AI Selves beta — Tweet
- Awesome GitHub Copilot — Tweet
Dit document is vertaald van de fr-versie naar de nl-taal met behulp van het model gpt-5-mini. Voor meer informatie over het vertaalproces, raadpleeg https://gitlab.com/jls42/ai-powered-markdown-translator