Luma AI lanserar Uni-1, en modell som förenar resonemang och pixelframställning i ett enda steg och som samlade 6,1 miljoner visningar på några dagar. Under tiden rullar Perplexity ut sina API:er i Samsung Browsing Assist på mer än en miljard Samsung-enheter, Claude Code v2.1.86 anländer med ett femtontal korrigeringar, och GitHub Copilot CLI introducerar automatisk generering av enhetstester via agenter i autopilot.
Luma Uni-1 — Enhetligt resonemang och pixelframställning
23 mars — Luma AI tillkännagav Uni-1, en modell de beskriver som « un nouveau type de modèle qui pense et génère des pixels simultanément ». Till skillnad från klassiska diffusionsmodeller som först skapar en latent representation och sedan avkodar den, förenar Uni-1 resonemang och generering i en enda process.
Tillkännagivandet fick stort genomslag med 6,1 miljoner visningar, 4 000 likes och över ett tusental delningar — ovanliga siffror för ett tekniskt tillkännagivande inom bildgenerering.
Arkitektur och positionering :
| Kapacitet | Beskrivning |
|---|---|
| Rumsligt resonemang | Förstår och kompletterar scener med konsekvent perspektiv och ocklusion |
| Sunt förnufts-resonemang | Sluter sig till scenens avsikt för att styra genereringen |
| Vägledd transformation | Ändringar styrda av fysisk plausibilitet, inte bara pixelmotsvarighet |
| Enhetlig intelligens | Förståelse, direktiv och generering i ett enda pass (unified pass) |
Luma placerar Uni-1 med formuleringen « Less artificial. More intelligent. » — vilket signalerar ett brott med bildgeneratorer som bygger på statistisk mönster-matchning. Modellen presenteras som grunden för Lumas framtida « Creative Agents », potentiellt motorn i nästa generation Dream Machine.
Uni-1 finns tillgänglig omedelbart på lumalabs.ai/app.
“A new kind of model that thinks and generates pixels at the same time.”
🇸🇪 En ny typ av modell som tänker och genererar pixlar samtidigt. — @LumaLabsAI på X
Perplexity driver Samsung Browsing Assist på 1 miljard enheter
26 mars — Samsung lanserade Browsing Assist, en konversationsbaserad AI-assistent inbyggd i Samsung Browser på Galaxy Android-enheter och Windows-PC:er. Bakom funktionen ligger Perplexitys API:er, utrullade över en utan motstycke räckvidd på mer än en miljard Samsung-enheter globalt.
Denna lansering konsoliderar ett redan existerande partnerskap: Perplexity driver två av tre inbyggda assistenter i Galaxy S26 — den inbyggda Perplexity-assistenten och Bixby, som använder Perplexitys API:er för webbsök och resonemang. Med Browsing Assist går Perplexity från konversationsassistent till webbläsarens AI-lager.
Kapaciteter i Browsing Assist :
| Funktionalitet | Beskrivning |
|---|---|
| Källbelagda svar | Resultat i realtid under browsning |
| Sidesammanfattning | Inklusive autentiserat innehåll (sidor bakom inloggning) |
| Sök i historik | I naturligt språk |
| Konversationell hantering | Öppna, stänga, navigera mellan flikar via röst eller text |
| Flik-åtgärder | Utföra åtgärder över flera öppna flikar samtidigt |
| Synk telefon → PC | Återuppta en konversation påbörjad på mobilen |
Infrastruktur : Browsing Assist körs på en dedikerad single-tenant-kluster från Perplexity, med noll retention av data för alla API-inmatningar. Endpointen är skräddarsydd för den latens och skala Samsung kräver.
Perplexity noterar att kapaciteterna som rullats ut hos Samsung — sök, resonemang, orkestrering över flikar — är exakt de byggstenar deras webbläsare Comet bygger på. Denna utrullning utgör en storskalig validering av Perplexitys tekniska stack.
Tillgänglighet : USA och Sydkorea vid lansering; fler regioner följer. Samma kapaciteter finns tillgängliga för utvecklare via Perplexitys Search API, Embeddings API och Agent API.
Claude Code v2.1.86 — Stora korrigeringar och stöd för VCS Jujutsu/Sapling
27 mars — Anthropic publicerade Claude Code v2.1.86, en version särskilt tät i korrigeringar. Uppdateringen innehåller ett femtontal buggfixar och flera prestandaförbättringar.
Huvudsakliga förbättringar :
| Kategori | Ändring |
|---|---|
| API | Header X-Claude-Code-Session-Id för att aggregera förfrågningar per session på proxy-sidan |
| VCS | Uteslutning av .jj (Jujutsu) och .sl (Sapling) i Grep och autocompletion |
| Cache MCP | Uppstartsfördröjning minskad från 5s till 30s (cache keychain macOS) |
| Prestanda | Förbättrad cache-hit rate på Bedrock, Vertex och Foundry |
| Tokens | Minskad overhead på omnämnanden @fichier (ingen JSON-escape av rått innehåll längre) |
| Minnes-UX | Klickbara filnamn i notisen « Saved N memories » |
| Skills | Beskrivningar begränsade till 250 tecken; meny /skills sorterad alfabetiskt |
| Read tool | Kompakt linjenummerformat, deduplicering av identiska omläsningar |
Noterbara buggfixar : --resume misslyckades på sessioner skapade före v2.1.85; Write/Edit/Read misslyckades på filer utanför projektets rot med villkorliga skills; potentiell minneskrasch med /feedback på långa sessioner; läge --bare tappade MCP-verktygen; OAuth-URL-kopieringskortkommandot kopierade bara ~20 tecken istället för hela URL:en; officiella marketplace-plugin-skript misslyckades med « Permission denied » på macOS/Linux sedan v2.1.83.
GitHub Copilot CLI — Enhetstester genererade av agenter i autopilot
28 mars — GitHub meddelade en ny kapacitet i Copilot CLI: att automatiskt generera en komplett uppsättning enhetstester direkt från terminalen, genom att kombinera plan-läget (plan mode) med en flotta agenter i autopilot.
Workflow :
- Aktivera plan-läget med
Shift-Tabi terminalen - Starta en flotta agenter i autopilot
- Följ framstegen med kommandot
/tasks
Genereringen parallelliseras över flera agenter, vilket gör det möjligt att täcka flera moduler samtidigt. Huvudfallet är befintliga projekt utan testtäckning — Copilot CLI kan generera en komplett testsvit utan att lämna terminalmiljön.
OpenAI — gpt-realtime-1.5 och gpt-realtime-mini i allmän tillgänglighet
27 mars — OpenAI tillkännagav allmän tillgänglighet (General Availability) för de nya realtime-modellerna via Realtime API. Modell-dokumentationen listar nu:
| Modell | Positionering |
|---|---|
gpt-realtime-1.5 | Bästa röstmodellen för tvåvägs ljudinteraktioner |
gpt-realtime-mini | Kostnadseffektiv version av realtime-modellen |
Dessa modeller ersätter den tidigare beteckningen gpt-4o-realtime-preview från betaperioden. Realtime API möjliggör tvåvägs röstinteraktioner (ljud in och ut) i realtid via WebRTC, WebSocket eller SIP. Demon som @OpenAIDevs visade illustrerar en medicinsk concierge för en klinik i Singapore som kan samla in information och boka tider naturligt.
Google DeepMind — Toolkit för att mäta manipulation av AI
26 mars — Google DeepMind publicerade resultaten av en stor empirisk studie om manipulation av människor av AI, med 10 000 personer. Studien identifierar områden där modeller utövar betydande påverkan (särskilt på det finansiella området) och områden där befintliga skydd effektivt blockerar felaktiga råd (medicinskt område).
Google DeepMind har utvecklat ett toolkit för att mäta manipulation av AI — det första av sitt slag validerat empiriskt — för att kvantifiera hur manipulation kan ske. Studien pekar ut riskfyllda taktiker som användning av rädsla som påtryckningsmedel.
“We’ve built an empirically validated, first-of-its-kind toolkit to measure AI manipulation in the real world — to better understand how it can occur and help protect people.”
🇸🇪 Vi har utvecklat ett toolkit för att mäta manipulation av AI i verkliga världen, empiriskt validerat och det första i sitt slag — för att bättre förstå hur det kan ske och skydda användare. — @GoogleDeepMind på X
Google Translate Live — Realtidsöversättning på iOS
27 mars — Google utökade Google Translate Live med headsetstöd på iOS, med en pågående utrullning till fler länder. Funktionen, tidigare endast tillgänglig på Android, möjliggör realtidsöversättning på över 70 språk via Bluetooth- eller trådbundna hörlurar.
MedGemma Impact Challenge — Fyra vinnare, 850+ team
26 mars — Google meddelade vinnarna i MedGemma Impact Challenge, en tävling som engagerade 850+ team av utvecklare att bygga hälsorelaterade applikationer med MedGemma 1.5 (Googles öppna medicinska modell).
Huvudvinnare :
| Placering | Projekt | Beskrivning |
|---|---|---|
| 1:a | EpiCast | Epidemiologisk övervakning för ECOWAS-länderna — översätter kliniska observationer till standardiserade IDSR-signaler enligt WHO |
| 2:a | Sunny | Detektion av tecken på hudcancer via mobil, strukturerade rapporter med bevarad sekretess |
| 3:e | FieldScreen AI | Off-line tuberkulos-screening: analyserar thoraxröntgen och hostljud |
| 4:e | Tracer | Förebyggande av medicinska fel: extraherar hypoteser från läkaranteckningar och jämför med testresultat |
Särskilda priser delades ut till Edge AI-projekt och agentiska arbetsflöden, bland annat ClinicDX (diagnostik integrerad i OpenMRS för subsahariska Afrika, 160+ WHO/MSF-guidelines, helt offline).
🔗 Blogg: Google MedGemma Impact Challenge
Runway — Ad Concepter App och 100 000 $-tävling
27 mars — Runway lanserade Ad Concepter App, ett AI-drivet verktyg för annonsproduktion. Utifrån en prompt, en referensbild och en produktbild genererar appen koncept, kompositioner och narrative steg (story beats) för annonser. Verktyget finns tillgängligt omedelbart via webbappen.
Runway startar samtidigt Big Ad Contest (#RunwayBigAdContest) med prispengar upp till 100 000 $ för att främja adoptionen av verktyget.
Pika — AI Selves i offentlig beta
26 mars — Pika öppnade Pika AI Selves i offentlig beta. Tillkännaget i februari beskrev funktionen som möjligheten för varje användare att skapa en agentisk förlängning av sig själv — ett «AI Self» med persistenta minnen (inklusive personliga detaljer som matallergier), kapabel att agera autonomt i gruppsamtal, skapa videospel eller skicka bilder.
Åtkomst är tillgänglig via pika.me (webb) och nya iOS-appen. Pika positionerar funktionen bortom ren videogenerering och in i konkurrens med personliga AI-agenter.
Snabbt
Awesome GitHub Copilot — 27 mars — Community-projektet «Awesome GitHub Copilot» migrerar till en ny dedikerad sajt awesome-copilot.github.com med fulltext-sök, Learning Hub och en-klicksinstallation för Copilot CLI och VS Code. 🔗 Tweet GitHub
NotebookLM push-notiser — 27 mars — NotebookLM låter dig nu lämna sidan under en lång generering och få en mobil push-notis när genereringen är klar. 🔗 Tweet NotebookLM
Vad det betyder
Luma Uni-1 markerar ett paradigmskifte i visuell generering: istället för att optimera pixelmotsvarighet inkorporerar modellen rumsligt resonemang under själva genereringen. Om det fungerar i praktiken förändrar det hur kreativa verktyg hanterar scenkonsekvens och komplexa instruktioner.
Perplexity × Samsung-utrullningen är möjligen veckans mest praktiskt betydelsefulla tillkännagivande: en miljard enheter är massiv distribution för Perplexitys sök- och resonemangskapaciteter. Det bekräftar också att specialiserade AI-API:er (sök, resonemang, orkestrering över flikar) blivit infrastrukturella komponenter för hårdvarutillverkare.
På utvecklarverktygssidan går Claude Code v2.1.86 och GitHub Copilot CLI åt två olika håll: Claude Code stärker tillförlitlighet (fixar för långa sessioner, MCP, mindre vanliga VCS), medan Copilot CLI driver mot agentisk automation (generering av tester via agentflottor). Båda rörelserna speglar en mognad hos utvecklingsassistenter bortom autokomplettering.
Källor
- Luma AI Uni-1 — Tweet tillkännagivande
- Perplexity APIs + Samsung Browsing Assist — Officiell blogg
- Perplexity × Samsung — Tweet
- Claude Code changelog
- GitHub Copilot CLI — Enhetstester — Tweet
- OpenAI gpt-realtime-1.5 — Tweet @OpenAIDevs
- Realtime API-dokumentation OpenAI
- Google DeepMind — Toolkit för manipulation av AI — Tweet
- Google Translate Live iOS — Tweet @GoogleAI
- MedGemma Impact Challenge — Google-blogg
- Runway Ad Concepter — Tweet
- Pika AI Selves beta — Tweet
- Awesome GitHub Copilot — Tweet
Detta dokument har översatts från franska till svenska med modellen gpt-5-mini. För mer information om översättningsprocessen, se https://gitlab.com/jls42/ai-powered-markdown-translator