Sök

Luma Uni-1 tänker och genererar pixlar, Perplexity på 1Md Samsung-enheter, Claude Code v2.1.86

Luma Uni-1 tänker och genererar pixlar, Perplexity på 1Md Samsung-enheter, Claude Code v2.1.86

Luma AI lanserar Uni-1, en modell som förenar resonemang och pixelframställning i ett enda steg och som samlade 6,1 miljoner visningar på några dagar. Under tiden rullar Perplexity ut sina API:er i Samsung Browsing Assist på mer än en miljard Samsung-enheter, Claude Code v2.1.86 anländer med ett femtontal korrigeringar, och GitHub Copilot CLI introducerar automatisk generering av enhetstester via agenter i autopilot.


Luma Uni-1 — Enhetligt resonemang och pixelframställning

23 mars — Luma AI tillkännagav Uni-1, en modell de beskriver som « un nouveau type de modèle qui pense et génère des pixels simultanément ». Till skillnad från klassiska diffusionsmodeller som först skapar en latent representation och sedan avkodar den, förenar Uni-1 resonemang och generering i en enda process.

Tillkännagivandet fick stort genomslag med 6,1 miljoner visningar, 4 000 likes och över ett tusental delningar — ovanliga siffror för ett tekniskt tillkännagivande inom bildgenerering.

Arkitektur och positionering :

KapacitetBeskrivning
Rumsligt resonemangFörstår och kompletterar scener med konsekvent perspektiv och ocklusion
Sunt förnufts-resonemangSluter sig till scenens avsikt för att styra genereringen
Vägledd transformationÄndringar styrda av fysisk plausibilitet, inte bara pixelmotsvarighet
Enhetlig intelligensFörståelse, direktiv och generering i ett enda pass (unified pass)

Luma placerar Uni-1 med formuleringen « Less artificial. More intelligent. » — vilket signalerar ett brott med bildgeneratorer som bygger på statistisk mönster-matchning. Modellen presenteras som grunden för Lumas framtida « Creative Agents », potentiellt motorn i nästa generation Dream Machine.

Uni-1 finns tillgänglig omedelbart på lumalabs.ai/app.

“A new kind of model that thinks and generates pixels at the same time.”

🇸🇪 En ny typ av modell som tänker och genererar pixlar samtidigt.@LumaLabsAI på X

🔗 Luma Uni-1-tillkännagivande


Perplexity driver Samsung Browsing Assist på 1 miljard enheter

26 mars — Samsung lanserade Browsing Assist, en konversationsbaserad AI-assistent inbyggd i Samsung Browser på Galaxy Android-enheter och Windows-PC:er. Bakom funktionen ligger Perplexitys API:er, utrullade över en utan motstycke räckvidd på mer än en miljard Samsung-enheter globalt.

Denna lansering konsoliderar ett redan existerande partnerskap: Perplexity driver två av tre inbyggda assistenter i Galaxy S26 — den inbyggda Perplexity-assistenten och Bixby, som använder Perplexitys API:er för webbsök och resonemang. Med Browsing Assist går Perplexity från konversationsassistent till webbläsarens AI-lager.

Kapaciteter i Browsing Assist :

FunktionalitetBeskrivning
Källbelagda svarResultat i realtid under browsning
SidesammanfattningInklusive autentiserat innehåll (sidor bakom inloggning)
Sök i historikI naturligt språk
Konversationell hanteringÖppna, stänga, navigera mellan flikar via röst eller text
Flik-åtgärderUtföra åtgärder över flera öppna flikar samtidigt
Synk telefon → PCÅteruppta en konversation påbörjad på mobilen

Infrastruktur : Browsing Assist körs på en dedikerad single-tenant-kluster från Perplexity, med noll retention av data för alla API-inmatningar. Endpointen är skräddarsydd för den latens och skala Samsung kräver.

Perplexity noterar att kapaciteterna som rullats ut hos Samsung — sök, resonemang, orkestrering över flikar — är exakt de byggstenar deras webbläsare Comet bygger på. Denna utrullning utgör en storskalig validering av Perplexitys tekniska stack.

Tillgänglighet : USA och Sydkorea vid lansering; fler regioner följer. Samma kapaciteter finns tillgängliga för utvecklare via Perplexitys Search API, Embeddings API och Agent API.

🔗 Perplexity officiella blogg


Claude Code v2.1.86 — Stora korrigeringar och stöd för VCS Jujutsu/Sapling

27 mars — Anthropic publicerade Claude Code v2.1.86, en version särskilt tät i korrigeringar. Uppdateringen innehåller ett femtontal buggfixar och flera prestandaförbättringar.

Huvudsakliga förbättringar :

KategoriÄndring
APIHeader X-Claude-Code-Session-Id för att aggregera förfrågningar per session på proxy-sidan
VCSUteslutning av .jj (Jujutsu) och .sl (Sapling) i Grep och autocompletion
Cache MCPUppstartsfördröjning minskad från 5s till 30s (cache keychain macOS)
PrestandaFörbättrad cache-hit rate på Bedrock, Vertex och Foundry
TokensMinskad overhead på omnämnanden @fichier (ingen JSON-escape av rått innehåll längre)
Minnes-UXKlickbara filnamn i notisen « Saved N memories »
SkillsBeskrivningar begränsade till 250 tecken; meny /skills sorterad alfabetiskt
Read toolKompakt linjenummerformat, deduplicering av identiska omläsningar

Noterbara buggfixar : --resume misslyckades på sessioner skapade före v2.1.85; Write/Edit/Read misslyckades på filer utanför projektets rot med villkorliga skills; potentiell minneskrasch med /feedback på långa sessioner; läge --bare tappade MCP-verktygen; OAuth-URL-kopieringskortkommandot kopierade bara ~20 tecken istället för hela URL:en; officiella marketplace-plugin-skript misslyckades med « Permission denied » på macOS/Linux sedan v2.1.83.

🔗 Claude Code changelog


GitHub Copilot CLI — Enhetstester genererade av agenter i autopilot

28 mars — GitHub meddelade en ny kapacitet i Copilot CLI: att automatiskt generera en komplett uppsättning enhetstester direkt från terminalen, genom att kombinera plan-läget (plan mode) med en flotta agenter i autopilot.

Workflow :

  1. Aktivera plan-läget med Shift-Tab i terminalen
  2. Starta en flotta agenter i autopilot
  3. Följ framstegen med kommandot /tasks

Genereringen parallelliseras över flera agenter, vilket gör det möjligt att täcka flera moduler samtidigt. Huvudfallet är befintliga projekt utan testtäckning — Copilot CLI kan generera en komplett testsvit utan att lämna terminalmiljön.

🔗 Tweet GitHub Copilot CLI


OpenAI — gpt-realtime-1.5 och gpt-realtime-mini i allmän tillgänglighet

27 mars — OpenAI tillkännagav allmän tillgänglighet (General Availability) för de nya realtime-modellerna via Realtime API. Modell-dokumentationen listar nu:

ModellPositionering
gpt-realtime-1.5Bästa röstmodellen för tvåvägs ljudinteraktioner
gpt-realtime-miniKostnadseffektiv version av realtime-modellen

Dessa modeller ersätter den tidigare beteckningen gpt-4o-realtime-preview från betaperioden. Realtime API möjliggör tvåvägs röstinteraktioner (ljud in och ut) i realtid via WebRTC, WebSocket eller SIP. Demon som @OpenAIDevs visade illustrerar en medicinsk concierge för en klinik i Singapore som kan samla in information och boka tider naturligt.

🔗 Tweet @OpenAIDevs


Google DeepMind — Toolkit för att mäta manipulation av AI

26 mars — Google DeepMind publicerade resultaten av en stor empirisk studie om manipulation av människor av AI, med 10 000 personer. Studien identifierar områden där modeller utövar betydande påverkan (särskilt på det finansiella området) och områden där befintliga skydd effektivt blockerar felaktiga råd (medicinskt område).

Google DeepMind har utvecklat ett toolkit för att mäta manipulation av AI — det första av sitt slag validerat empiriskt — för att kvantifiera hur manipulation kan ske. Studien pekar ut riskfyllda taktiker som användning av rädsla som påtryckningsmedel.

“We’ve built an empirically validated, first-of-its-kind toolkit to measure AI manipulation in the real world — to better understand how it can occur and help protect people.”

🇸🇪 Vi har utvecklat ett toolkit för att mäta manipulation av AI i verkliga världen, empiriskt validerat och det första i sitt slag — för att bättre förstå hur det kan ske och skydda användare.@GoogleDeepMind på X

🔗 Tweet Google DeepMind


Google Translate Live — Realtidsöversättning på iOS

27 mars — Google utökade Google Translate Live med headsetstöd på iOS, med en pågående utrullning till fler länder. Funktionen, tidigare endast tillgänglig på Android, möjliggör realtidsöversättning på över 70 språk via Bluetooth- eller trådbundna hörlurar.

🔗 Tweet @GoogleAI


MedGemma Impact Challenge — Fyra vinnare, 850+ team

26 mars — Google meddelade vinnarna i MedGemma Impact Challenge, en tävling som engagerade 850+ team av utvecklare att bygga hälsorelaterade applikationer med MedGemma 1.5 (Googles öppna medicinska modell).

Huvudvinnare :

PlaceringProjektBeskrivning
1:aEpiCastEpidemiologisk övervakning för ECOWAS-länderna — översätter kliniska observationer till standardiserade IDSR-signaler enligt WHO
2:aSunnyDetektion av tecken på hudcancer via mobil, strukturerade rapporter med bevarad sekretess
3:eFieldScreen AIOff-line tuberkulos-screening: analyserar thoraxröntgen och hostljud
4:eTracerFörebyggande av medicinska fel: extraherar hypoteser från läkaranteckningar och jämför med testresultat

Särskilda priser delades ut till Edge AI-projekt och agentiska arbetsflöden, bland annat ClinicDX (diagnostik integrerad i OpenMRS för subsahariska Afrika, 160+ WHO/MSF-guidelines, helt offline).

🔗 Blogg: Google MedGemma Impact Challenge


Runway — Ad Concepter App och 100 000 $-tävling

27 mars — Runway lanserade Ad Concepter App, ett AI-drivet verktyg för annonsproduktion. Utifrån en prompt, en referensbild och en produktbild genererar appen koncept, kompositioner och narrative steg (story beats) för annonser. Verktyget finns tillgängligt omedelbart via webbappen.

Runway startar samtidigt Big Ad Contest (#RunwayBigAdContest) med prispengar upp till 100 000 $ för att främja adoptionen av verktyget.

🔗 Tweet Runway


Pika — AI Selves i offentlig beta

26 mars — Pika öppnade Pika AI Selves i offentlig beta. Tillkännaget i februari beskrev funktionen som möjligheten för varje användare att skapa en agentisk förlängning av sig själv — ett «AI Self» med persistenta minnen (inklusive personliga detaljer som matallergier), kapabel att agera autonomt i gruppsamtal, skapa videospel eller skicka bilder.

Åtkomst är tillgänglig via pika.me (webb) och nya iOS-appen. Pika positionerar funktionen bortom ren videogenerering och in i konkurrens med personliga AI-agenter.

🔗 Tweet Pika Labs


Snabbt

Awesome GitHub Copilot — 27 mars — Community-projektet «Awesome GitHub Copilot» migrerar till en ny dedikerad sajt awesome-copilot.github.com med fulltext-sök, Learning Hub och en-klicksinstallation för Copilot CLI och VS Code. 🔗 Tweet GitHub

NotebookLM push-notiser — 27 mars — NotebookLM låter dig nu lämna sidan under en lång generering och få en mobil push-notis när genereringen är klar. 🔗 Tweet NotebookLM


Vad det betyder

Luma Uni-1 markerar ett paradigmskifte i visuell generering: istället för att optimera pixelmotsvarighet inkorporerar modellen rumsligt resonemang under själva genereringen. Om det fungerar i praktiken förändrar det hur kreativa verktyg hanterar scenkonsekvens och komplexa instruktioner.

Perplexity × Samsung-utrullningen är möjligen veckans mest praktiskt betydelsefulla tillkännagivande: en miljard enheter är massiv distribution för Perplexitys sök- och resonemangskapaciteter. Det bekräftar också att specialiserade AI-API:er (sök, resonemang, orkestrering över flikar) blivit infrastrukturella komponenter för hårdvarutillverkare.

På utvecklarverktygssidan går Claude Code v2.1.86 och GitHub Copilot CLI åt två olika håll: Claude Code stärker tillförlitlighet (fixar för långa sessioner, MCP, mindre vanliga VCS), medan Copilot CLI driver mot agentisk automation (generering av tester via agentflottor). Båda rörelserna speglar en mognad hos utvecklingsassistenter bortom autokomplettering.


Källor

Detta dokument har översatts från franska till svenska med modellen gpt-5-mini. För mer information om översättningsprocessen, se https://gitlab.com/jls42/ai-powered-markdown-translator