Zoeken

Luma Uni-1 denkt en genereert pixels, Perplexity op 1 miljard Samsung-apparaten, Claude Code v2.1.86

Luma Uni-1 denkt en genereert pixels, Perplexity op 1 miljard Samsung-apparaten, Claude Code v2.1.86

Luma AI lanceert Uni-1, een model dat redeneren en pixelgeneratie in één enkele passage samenbrengt en binnen enkele dagen 6,1 miljoen weergaven verzamelde. Ondertussen rolt Perplexity zijn API’s uit in Samsung Browsing Assist op meer dan een miljard apparaten, Claude Code v2.1.86 komt met een vijftiental fixes, en GitHub Copilot CLI introduceert automatische generatie van unit-tests via agents.


Luma Uni-1 — Geünificeerd redeneren en pixelgeneratie

23 maart — Luma AI kondigde Uni-1 aan, een model dat het beschrijft als « un nouveau type de modèle qui pense et génère des pixels simultanément ». In tegenstelling tot klassieke diffusion-modellen die eerst een latente representatie genereren en die vervolgens decoderen, verenigt Uni-1 redeneren en generatie in één proces.

De aankondiging trok veel aandacht met 6,1 miljoen weergaven, 4.000 likes en meer dan duizend shares — ongebruikelijke cijfers voor een technische aankondiging in beeldgeneratie.

Architectuur en positionering :

CapaciteitBeschrijving
Ruimtelijk redenerenBegrijpt en voltooit scènes met consistente perspectief- en occlusielogica
Gezond verstand redenerenLeidt de intentie van de scène af om de generatie te sturen
Geleide transformatiesWijzigingen gestuurd door fysieke plausibiliteit, niet enkel pixelmatching
Geünificeerde intelligentieBegrip, instructies en generatie in één enkele passage (unified pass)

Luma positioneert Uni-1 met de formule « Less artificial. More intelligent. » — wat een breuk signaliseert met generatoren die gebaseerd zijn op statistische patroonovereenkomst van visuele pixels. Het model wordt gepresenteerd als de basis van Luma’s toekomstige « Creative Agents », mogelijk de motor achter de volgende generatie Dream Machine.

Uni-1 is direct beschikbaar op lumalabs.ai/app.

“A new kind of model that thinks and generates pixels at the same time.”

🇳🇱 Een nieuw soort model dat tegelijkertijd nadenkt en pixels genereert.@LumaLabsAI op X

🔗 Aankondiging Luma Uni-1


Perplexity voedt Samsung Browsing Assist op 1 miljard apparaten

26 maart — Samsung heeft Browsing Assist gelanceerd, een conversatiegerichte AI-assistent die native geïntegreerd is in Samsung Browser op Galaxy Android-apparaten en Windows-pc’s. Achter die functie zitten de API’s van Perplexity, uitgerold op een ongeziene schaal van meer dan een miljard Samsung-apparaten wereldwijd.

Deze lancering bevestigt een bestaande samenwerking: Perplexity levert twee van de drie ingebouwde assistenten op de Galaxy S26 — de native Perplexity-assistent en Bixby, die de Perplexity API’s gebruikt voor websearch en redeneren. Met Browsing Assist verschuift Perplexity van conversatie-assistent naar de AI-laag van de browser zelf.

Mogelijkheden van Browsing Assist :

FunctionaliteitBeschrijving
Gesourceerde antwoordenRealtime resultaten tijdens het browsen
Pagina-samenvattingenInclusief geauthenticeerde inhoud (pagina’s achter aanmelding)
Zoeken in geschiedenisIn natuurlijke taal
Conversationeel beheerOpenen, sluiten en navigeren tussen tabs via spraak of tekst
Multi-tab actiesTegelijk opereren op meerdere geopende tabbladen
Synchronisatie telefoon → pcEen gesprek hervatten dat op mobiel begonnen is

Infrastructuur : Browsing Assist draait op een dedicated single-tenant cluster van Perplexity, met nul retentie van data voor alle API-inputs. Het endpoint is op maat ontworpen voor de snelheid en schaal die Samsung vereist.

Perplexity geeft aan dat de bij Samsung uitgerolde capaciteiten — search, redeneren, multi-tab orchestratie — exact diezelfde functionaliteiten zijn waarop hun browser Comet is gebouwd. Deze uitrol is een grootschalige validatie van Perplexity’s technische stack.

Beschikbaarheid : Verenigde Staten en Zuid-Korea bij lancering; andere regio’s volgen. Dezelfde capaciteiten zijn beschikbaar voor ontwikkelaars via de Search API, de Embeddings API en de Agent API van Perplexity.

🔗 Officiële blog Perplexity


Claude Code v2.1.86 — Belangrijke fixes en ondersteuning voor VCS Jujutsu/Sapling

27 maart — Anthropic heeft Claude Code v2.1.86 uitgebracht, een release met veel bugfixes. De update brengt een vijftiental fixes en meerdere prestatieverbeteringen.

Belangrijkste verbeteringen :

CategorieWijziging
APIHeader X-Claude-Code-Session-Id om requests per sessie te aggregeren aan de proxy-kant
VCSUitsluiting van .jj (Jujutsu) en .sl (Sapling) in Grep en autocompletion
Cache MCPOpstartvertraging gereduceerd van 5s naar 30s (keychain cache macOS)
PrestatiesVerbeterde cache-hit rates op Bedrock, Vertex en Foundry
TokensOverhead verminderd bij vermeldingen @fichier (geen JSON-escape meer van ruwe content)
UX geheugenKlikbare bestandsnamen in de melding « Saved N memories »
SkillsBeschrijvingen beperkt tot 250 tekens; menu /skills alfabetisch gesorteerd
Read toolCompacte lijnnummerformattering, deduplicatie van identieke herlezingen

Opmerkelijke bugfixes : --resume faalde op sessies gemaakt vóór v2.1.85 ; Write/Edit/Read faalde op bestanden buiten de projectroot met conditionele skills ; mogelijke geheugencrash met /feedback op lange sessies ; --bare modus verloor MCP-tools ; de OAuth-URL kopieersnelkoppeling kopieerde slechts ~20 tekens in plaats van de volledige URL ; officiële marketplace plugin-scripts faalden met « Permission denied » op macOS/Linux sinds v2.1.83.

🔗 Claude Code wijzigingslog


GitHub Copilot CLI — Unit-tests door agents in autopilot

28 maart — GitHub kondigde een nieuwe mogelijkheid voor Copilot CLI aan: automatisch een volledige suite unit-tests genereren rechtstreeks vanuit de terminal, door de plan mode te combineren met een vloot agents in autopilot.

Workflow :

  1. Activeer de plan-modus met Shift-Tab in de terminal
  2. Start een vloot agents in autopilot
  3. Volg de voortgang met de opdracht /tasks

De generatie wordt gepaard en verdeeld over meerdere agents, waardoor meerdere modules gelijktijdig kunnen worden gedekt. Het belangrijkste gebruiksgeval is bestaande projecten zonder testcoverage — Copilot CLI kan een volledige suite genereren zonder de terminalomgeving te verlaten.

🔗 Tweet GitHub Copilot CLI


OpenAI — gpt-realtime-1.5 en gpt-realtime-mini algemeen beschikbaar

27 maart — OpenAI maakte de algemene beschikbaarheid (General Availability) bekend van nieuwe realtime-modellen via de Realtime API. De modeldocumentatie vermeldt nu :

ModelPositionering
gpt-realtime-1.5Beste spraakmodel voor bidirectionele audio-interacties
gpt-realtime-miniEconomische versie van het realtime-model

Deze modellen vervangen de oude naamgeving gpt-4o-realtime-preview uit de beta-periode. De Realtime API maakt bidirectionele spraakinteracties (audio-in en -uit) in realtime mogelijk via WebRTC, WebSocket of SIP. De demo van @OpenAIDevs toont een medisch conciërge voor een kliniek in Singapore die informatie verzamelt en afspraken natuurlijk kan inplannen.

🔗 Tweet @OpenAIDevs


Google DeepMind — Toolkit om AI-manipulatie te meten

26 mars — Google DeepMind publiceerde de resultaten van een grootschalige empirische studie over manipulatie door AI, uitgevoerd met 10.000 mensen. De studie identificeert domeinen waar modellen significante invloed uitoefenen (onder andere financieel) en domeinen waar bestaande safeguards effectief verkeerde adviezen blokkeren (onder andere medisch).

Google DeepMind ontwikkelde een toolkit om AI-manipulatie te meten — het eerste empirisch gevalideerde instrument in zijn soort — om te kwantificeren hoe manipulatie kan optreden. De studie wijst op risicovolle tactieken zoals het gebruik van angst als hefboom.

“We’ve built an empirically validated, first-of-its-kind toolkit to measure AI manipulation in the real world — to better understand how it can occur and help protect people.”

🇳🇱 We hebben een toolkit ontwikkeld om manipulatie door AI in de echte wereld te meten, empirisch gevalideerd en de eerste in zijn soort — om beter te begrijpen hoe het kan gebeuren en gebruikers te beschermen.@GoogleDeepMind op X

🔗 Tweet Google DeepMind


Google Translate Live — Realtime vertaling op iOS

27 maart — Google breidde Google Translate Live met koptelefoonondersteuning uit naar iOS, met een uitrol naar meer landen. De functie, eerder alleen op Android beschikbaar, biedt realtime vertaling in 70+ talen via Bluetooth- of bedrade koptelefoons.

🔗 Tweet @GoogleAI


MedGemma Impact Challenge — Vier winnaars, 850+ teams

26 maart — Google maakte de winnaars bekend van de MedGemma Impact Challenge, een competitie die 850+ teams ontwikkelaars mobiliseerde om gezondheidsapps te bouwen met MedGemma 1.5 (het open medische model van Google).

Hoofdwinnaars :

RangProjectBeschrijving
1eEpiCastEpidemiologische surveillance voor ECOWAS-landen — vertaalt klinische observaties naar gestandaardiseerde WHO IDSR-signalen
2eSunnyDetectie van huidkankersignalen via mobiel, gestructureerde rapporten met behoud van privacy
3eFieldScreen AIOffline tuberculosedetectie: analyseert thoraxradiografieën en hoest-audio
4eTracerPreventie van medische fouten: extraheert artsenveronderstellingen uit notities en confronteert die met testresultaten

Speciale prijzen gingen naar Edge AI-projecten en agentic workflow-oplossingen, waaronder ClinicDX (diagnostiek geïntegreerd in OpenMRS voor sub-Sahara Afrika, 160+ WHO/MSF-richtlijnen, volledig offline).

🔗 Blog MedGemma Impact Challenge van Google


Runway — Ad Concepter App en wedstrijd van $100.000

27 maart — Runway lanceerde de Ad Concepter App, een AI-tool voor advertentiecreatie. Op basis van een prompt, een referentiebeeld en een productvisual genereert de app concepten, composities en verhalende stappen (story beats) voor advertenties. De tool is direct beschikbaar op de webapp.

Tegelijkertijd start Runway de Big Ad Contest (#RunwayBigAdContest) met prijzen tot $100.000 om adoptie van de tool te stimuleren.

🔗 Tweet Runway


Pika — AI Selves in publieke bèta

26 maart — Pika opende de Pika AI Selves in publieke bèta. Aangekondigd in februari, stelt deze feature gebruikers in staat een agentachtige extensie van zichzelf te creëren — een « AI Self » met persistente geheugen (inclusief persoonlijke details zoals voedselallergieën), die autonoom kan handelen in groepsgesprekken, videogames kan maken of foto’s kan verzenden.

Toegang is universeel via pika.me (web) en de nieuwe iOS-app. Pika positioneert deze functie voorbij pure videogeneratie en concurreert zo in het veld van persoonlijke AI-agents.

🔗 Tweet Pika Labs


Kort nieuws

Awesome GitHub Copilot — 27 maart — Het communityproject “Awesome GitHub Copilot” verhuist naar een nieuwe dedicated site awesome-copilot.github.com met full-text zoekfunctie, een Learning Hub en één-klik installatie voor Copilot CLI en VS Code. 🔗 Tweet GitHub

NotebookLM push-notificaties — 27 maart — NotebookLM staat nu toe de pagina te verlaten tijdens een lange generatie en een mobiele push-notificatie te ontvangen zodra de generatie klaar is. 🔗 Tweet NotebookLM


Wat dit betekent

Luma Uni-1 markeert een paradigmawissel in visuele generatie: in plaats van te optimaliseren voor statistische pixelovereenkomst, integreert het model ruimtelijk redeneren tijdens de generatie zelf. Als dit in de praktijk succesvol is, verandert het hoe creatieve tools scènecoherentie en complexe instructies kunnen afhandelen.

De Perplexity × Samsung-uitrol is mogelijk de meest praktisch ingrijpende aankondiging van de week: een miljard apparaten is een enorme distributie voor Perplexity’s zoek- en redeneerfuncties. Het bevestigt ook dat gespecialiseerde AI-API’s (search, reasoning, multi-tab orchestratie) ingrediënten geworden zijn van de infrastructuur voor hardwarefabrikanten.

Aan de developer-kant consolideren Claude Code v2.1.86 en GitHub Copilot CLI twee verschillende trends: Claude Code verbetert betrouwbaarheid (fixes voor lange sessies, MCP, minder courante VCS), terwijl Copilot CLI inzet op agentische automatisering (unit-testgeneratie door een vloot agents). Beide ontwikkelingen weerspiegelen de toenemende volwassenheid van development assistants voorbij eenvoudige autocompletion.


Bronnen

Dit document is vertaald van de fr-versie naar de nl-taal met behulp van het model gpt-5-mini. Voor meer informatie over het vertaalproces, raadpleeg https://gitlab.com/jls42/ai-powered-markdown-translator