Sök

Grok förbjudet i Nederländerna, Gemini 3.1 Flash Live, Codex inbyggda plugins

Domstolen i Amsterdam förbjuder xAI att generera sexuella bilder utan samtycke med Grok, med böter på 100 000 € per dag. Samma dag lanserar Google Gemini 3.1 Flash Live för realtidssamtal i över 90 språk, OpenAI integrerar inbyggda plugins i Codex (Slack, Figma, Notion, Gmail) och Anthropic publicerar en teknisk artikel om utformningen av auto-läget i Claude Code. Cohere, Mistral och Suno kompletterar en vecka fylld av tillkännagivanden.


xAI : domstolen i Amsterdam förbjuder Grok-nakenbilder

27 mars — Amtsrätten i Amsterdam fattade ett beslut mot xAI som förbjuder företaget att generera eller sprida icke-samtyckta sexuella bilder i Nederländerna. Vid överträdelse löper böterna på €100 000 per dag, upp till ett tak på €10 miljoner.

Beslutet följer en gemensam anmälan från den nederländska NGO:n Offlimits och Victims Support Fund. Enligt Center for Countering Digital Hate (CCDH) genererade Grok 3 miljoner sexualiserade bilder på 11 dagar, varav 23 000 involverade minderåriga. Offlimits påpekar att Grok inte tar hänsyn till den geografiska platsen för den avbildade personen, vilket ger verktyget global räckvidd.

Beslutet kommer samma dag som Europaparlamentet röstade för ett förbud mot sexuella deepfakes genererade av AI — en stark signal om regleringskonvergens. Det är den första europeiska domen av detta slag som direkt riktar sig mot xAI.

🔗 CNBC : Nederländsk domstol förbjuder Grok AI-nakenbilder 🔗 The Record Media : Nederländsk domstol hotar xAI med böter


Gemini 3.1 Flash Live : realtidsljud i 90+ språk

26 mars — Google lanserar Gemini 3.1 Flash Live, sin multimodala modell för realtidssamtal. Den hanterar ljud, bilder, video och text med ett kontextfönster på 128 000 tokens och stödjer över 90 språk.

Jämfört med föregående generation klarar modellen av att upprätthålla konversationer som är dubbelt så långa, hanterar bakgrundsbrus och omgivningsljud bättre, följer komplexa systeminstruktioner med högre precision och triggar externa verktyg mer tillförlitligt under samtal. Allt genererat ljud märks med SynthID.

FunktionDetalj
Kontextfönster128 000 tokens
Språk90+
Konversationer2× längre än tidigare
WatermarkingSynthID på allt ljud

Tillgänglighet: via Live API i Google AI Studio (utvecklare), via Gemini Live och Search Live (användare, 200+ länder) och via Vertex AI (företag). Search Live utökar också tillgången till över 200 länder och territorier, med stöd för video via Google Lens.

🔗 Officiellt meddelande från Google


Gemini : import av minnen och historik från ChatGPT och Claude

26 mars — Google lanserar ett importverktyg i Gemini-appen för att förenkla migrering från andra AI-assistenter.

Två funktioner är tillgängliga:

  1. Import av minnen (“Add Memory”) : Gemini föreslår en prompt att skriva i ChatGPT, Claude eller Copilot. Det genererade svaret (en sammanfattning av de personliga data som det andra verktyget har memorerat) kopieras och klistras in i Gemini, som extraherar preferenser, intressen, platsinformation osv.

  2. Import av historik (“Import Chats”) : uppladdning av en fil .zip exporterad från ChatGPT eller Claude, upp till 5 GB. Tidigare konversationer blir sökbara och kan återupptas i Gemini.

🔗 Google-blogg : Byt till Gemini-appen


Gemini CLI v0.35.2 : subagents som standard, förbättrat Vim — och Pro-åtkomst begränsad

25–26 mars — Den stabila versionen v0.35.2 av Gemini CLI introducerar flera betydande funktioner.

FunktionBeskrivning
Subagents aktiverade som standardParallell uppgiftsschemaläggare + kodsegmentering
Anpassningsbara snabbkommandonStöd för keybindings, literal characters, Kitty-protokoll
Förbättrat Vim-lägeMotions X, ~, r, f/F/t/T ; kopiera-klistra med unnamed register
Enhetlig SandboxManagerIsolation av verktyg med bubblewrap/seccomp på Linux
JIT-kontinuitetsupptäcktOptimerad inladdning för filesystem-verktyg
gRPC inbyggtInbyggd integration och protokollrouting

Policyändring av betydelse: från och med 25 mars har gratisanvändare endast tillgång till Gemini Flash. Tillgång till Gemini Pro är reserverad för betalande abonnemang (Pro och Ultra). Gemenskapens reaktion är i stort sett negativ. Google skärper också missbruksdetektering: användning av OAuth-autentisering för Gemini CLI med tredjepartsprogram kan nu leda till begränsningar.

🔗 Changelog Gemini CLI 🔗 Gemenskapsdiskussion


Gemini Drop mars 2026 : Personal Intelligence gratis och Lyria 3 Pro

27 mars — Månadens “Gemini Drops” för mars 2026 presenterar nya funktioner i Gemini-appen som rullats ut den här månaden.

FunktionBeskrivningTillgänglighet
Personal Intelligence gratisKoppling till Gmail, Photos, YouTube för att planera resor/projektGratis, USA
Gemini Live förbättratBaserat på Gemini 3.1 Flash Live, kontext 2× längreAlla användare
Import ChatGPT/ClaudeÖverför minnen och historikAlla användare
Lyria 3 ProMusikskapande upp till 3 minuter, bilder → anthemsAbonnenter
Google TVVisuella Gemini-svar och berättarrösterGoogle TV

🔗 Gemini Drop mars 2026


Codex : inbyggda plugins för Slack, Figma, Notion och Gmail

26–27 mars — OpenAI rullar ut plugins som en förstklassig funktion i Codex. Utvecklare kan koppla Codex till de verktyg de använder dagligen utan manuell konfiguration.

PluginAnvändningsfall
SlackSkicka meddelanden, läsa kanaler
FigmaÅtkomst till designs, generera kod
NotionLäsa och skriva sidor
GmailLäsa och skriva e-post

Plugins synkroniseras automatiskt vid start av Codex och nås via kommandot /plugins. Installation och avinstallation görs direkt från TUI-gränssnittet med inbyggd hantering av autentisering.

Den 27 mars publicerade OpenAI ett galleri med praktiska användningsfall tillgängliga med ett klick: bygga iOS-appar, analysera dataset, generera rapporter och presentationer. Changelog för Codex v0.117.0 beskriver de tekniska funktionerna, inklusive stöd för att nämna plugins i prompts.

🔗 Dokumentation för Codex-plugins 🔗 Tweet @OpenAIDevs


Anthropic : hur auto-läget i Claude Code är utformat

26 mars — Anthropic publicerade en teknisk bloggartikel om utformningen av sitt auto-läge (auto mode) i Claude Code, publicerad på Engineering-bloggen.

Problemet som adresseras : användare av Claude Code drabbas av godkännandettrötthet (approval fatigue). Statistik visar att 93 % av tillståndsförfrågningarna accepteras — vilket antyder att delvis automatisering är möjlig utan att offra säkerheten.

Lösningen : två lager av klassificerare

Auto-läget bygger på två skyddsnivåer baserade på modeller (Sonnet 4.6):

  1. Ingångslager : en probe för promptinjektion (prompt injection probe) analyserar verktygens resultat innan de når agenten.
  2. Utgångslager : en transkriptionsklassificerare utvärderar varje föreslagen åtgärd via en tvåstegsprocess innan den utförs.
NivåTyp av åtgärdBehandling
Tier 1Säkra verktyg (läsa filer, sökning)Direktpassage, utan klassificerare
Tier 2Ändringar av filer i projektetOmskrivning av klassificerare (granskningsbara via versionskontroll)
Tier 3Farliga åtgärder (shell-kommandon, externa operationer)Fullständig utvärdering av klassificeraren

Prestandamått :

StegFalskt positiva andel (riktig trafik)Falskt negativa andel (riskfyllda åtgärder)
Steg 1 (snabb)8,5 %6,6 %
Full pipeline0,4 %17 %

Den falskt positiva andelen på 0,4 % för hela pipelinen betyder att auto-läget nästan aldrig avbryter arbete felaktigt. Den falskt negativa andelen på 17 % speglar fall där klassificeraren upptäcker en risk men misstolkar användarens beviljade behörighetsomfång.

“New on the Engineering Blog: How we designed Claude Code auto mode. Many Claude Code users let Claude work without permission prompts. Auto mode is a safer middle ground: we built and tested classifiers that make approval decisions instead.”

🇸🇪 På Engineering-bloggen: hur vi utformade auto-läget i Claude Code. Många användare låter Claude arbeta utan att begära tillstånd. Auto-läget är ett säkrare kompromiss: vi har byggt och testat klassificerare som fattar godkännandebesluten åt dem.@AnthropicAI på X

🔗 Claude Code auto mode: ett säkrare sätt att hoppa över tillstånd


GitHub Copilot : lösning av merge-konflikter och synlighet för agenter

26 mars — Två större uppdateringar av GitHub Copilot förbättrar teamens arbetsflöden.

Lösning av merge-konflikter : det är nu möjligt att nämna @copilot i en pull request-kommentar för att be den lösa konflikter. Agenten arbetar i sin molnmiljö, löser konflikterna, verifierar att build och tester passerar och pushar sedan ändringarna. Finns för alla betalplaner för Copilot (Business/Enterprise kräver adminaktivering).

Synlighet för agenter i Issues och Projects : när en kodagent (Copilot, Claude, Codex) tilldelas en issue visas dess session under assignee i sidofältet med realtidsstatus — i kö, pågående, väntar på granskning, klar. Sessioner syns även i tabell- och board-vyerna i Projects (aktiveras via “View menu > Show agent sessions”).

🔗 Copilot löser merge-konflikter 🔗 Agentaktivitet i Issues och Projects


GitHub : ny PR-instrumentpanel och Copilot for Jira

25–26 mars — Ytterligare två förbättringar för utvecklare på GitHub.

Pull Requests-instrumentpanel (publik preview) : en omarbetad instrumentpanel på github.com/pulls centraliserar PRs som behöver uppmärksamhet — begärda granskningar, åtgärder som krävs, redo att mergas. Anpassade sparade vyer, avancerade filter med autokomplettering och stöd för AND/OR-frågor kompletterar gränssnittet. Aktiveras via Feature Preview-inställningarna.

Copilot for Jira : sedan lanseringen i publik preview har flera förbättringar gjorts: val av AI-modell direkt från Jira, automatisk inklusion av Jira-ticketnummer i PR-titel och branchnamn samt åtkomst till Confluence-sidor via Atlassians MCP-server (konfigurerbart med PAT).

🔗 Ny PR-instrumentpanel 🔗 Förbättringar i Copilot for Jira


Cohere Transcribe : #1 i open-source ASR-ranking

26 mars — Cohere lanserar Cohere Transcribe, sin första modell för automatisk taligenkänning (ASR). Tillgänglig open-source under Apache 2.0-licens, den intar direkt förstaplatsen i Open ASR-ranking på Hugging Face för engelska.

Modellen bygger på en Fast-Conformer Transformer encoder-decoder-arkitektur med 2 miljarder parametrar. Mer än 90 % av parametrarna tilldelas encodern, med en lättviktig decoder för att minimera autoregressivt beräkning och maximera hastigheten. Tränad på 500 000 timmar parat ljud-transkription.

ModellGenomsnittlig WER
Cohere Transcribe5,42
Zoom Scribe v15,47
IBM Granite 4.0 1B5,52
NVIDIA Canary Qwen 2.5B5,63
OpenAI Whisper Large v37,44

WER (Word Error Rate — ordfelprocent) på 5,42 % placerar Cohere Transcribe i topp. Inferenzhastigheten är 3× snabbare än konkurrenter av jämförbar storlek. 14 språk stöds (inklusive franska, tyska, arabiska, mandarin-kinesiska, japanska och koreanska).

Begränsningar att notera : modellen är inte designad för code-switching (språkbyte under ljudet) och kan transkribera icke-vokala ljud — ett VAD-filter (Voice Activity Detection) rekommenderas.

🔗 Cohere-blogg : Transcribe 🔗 Modell på Hugging Face


Suno v5.5 : personlig röst, skräddarsydda modeller, adaptiva preferenser

26 mars — Suno släpper version 5.5 av sitt musikgenereringsverktyg, med tre nya funktioner fokuserade på personalisering.

FunktionBeskrivningTillgänglighet
VoicesSpela in och använda sin egen sjungna röst (förblir privat)Alla användare
Custom ModelsFine-tuning från egna kompositioner, upp till 3 modellerPro/Premier-abonnenter
My TasteAdaptiv inlärning av genre- och stämningspreferenserAlla användare

Dessa verktyg presenteras som grunden för nästa generations modeller som utvecklas i samarbete med musikindustrin.

🔗 Suno Blog v5.5


Mistral Voxtral TTS : röstkloning på 3 sekunder, open-weight

23 mars (pressbevakning 26–27 mars) — Mistral publicerar Voxtral TTS, sin första open-weight-modell för text-till-tal. Modellen voxtral-tts-2603 har 4 miljarder parametrar och stöder 9 språk (engelska, franska, tyska, spanska, nederländska, portugisiska, italienska, hindi, arabiska).

Den rapporterade latenstiden är 70 ms för en typisk konfiguration (exempel på 10 sekunder + 500 tecken). Röstkloning fungerar från endast 3 sekunder referensljud. Vad gäller naturlighet uppger Mistral att Voxtral överträffar ElevenLabs Flash v2.5 och når paritet med ElevenLabs v3. Modellen kan köras på en vanlig laptop, ett mid-range GPU eller en high-end mobil enhet. Åtkomst : vikter tillgängliga på Hugging Face (licens Creative Commons) och via Mistral Studio API till 0,016 dollar per 1 000 tecken. Integration av voice mode tillgänglig i Le Chat.

🔗 Mistral Voxtral-tillkännagivande


xAI : SuperGrok Lite för 10 dollar/mån och videostories på 15 sekunder

25 mars — xAI meddelade två nyheter kring Grok.

SuperGrok Lite : en ny abonnemangsplan på 10 dollar per månad, för närvarande i begränsad testning. Den inkluderar chatt-sessioner som är dubbelt så långa som på gratisnivån, en AI-agent och videogenerering i 480p (max 6 sekunder). Planen placeras mellan gratisnivån och SuperGrok Standard (30 dollar per månad).

Video stories via Grok Imagine : Grok Imagine genererar nu “videostories” på 15 sekunder i 720p med synkroniserat ljud, bakgrundsmusik och ljudeffekter. Elon Musk uppgav att han vill “doubla insatsen” på video. Detta tillkännagivande kommer i samband med att OpenAI stängde Sora samma vecka.

🔗 Bloomberg: xAI doubling down on AI videos


Kimi/Moonshot AI överväger börsintroduktion i Hongkong

26 mars — Moonshot AI, det kinesiska företaget bakom modellen Kimi, överväger en börsintroduktion på Hongkongs börs, enligt Bloomberg. Rådgivande banker sägs vara CICC och Goldman Sachs, med en målvärdering på omkring 18 miljarder dollar och en pågående finansiering på upp till 1 miljard dollar. Nuvarande aktieägare inkluderar Alibaba, Tencent och 5Y Capital. Tidpunkten för IPO:n är fortfarande osäker.

🔗 Bloomberg: Moonshot considers Hong Kong IPO


NVIDIA GTC : proprietär och öppen AI är inte motstridiga

25 mars — Under GTC 2026 sade NVIDIA och branschledare (Mistral, Perplexity, Cursor, Reflection AI, LangChain) att framtiden för AI ligger i kompletterbarheten mellan öppna och proprietära modeller. Jensen Huang sammanfattade NVIDIAs ståndpunkt: “Proprietary versus open is not a thing. It’s proprietary and open.”

Blogginlägget betonar behovet av orkestrering över flera modeller, multi-cloud och multimodalt för företag. NVIDIA bekräftar sitt open source-engagemang genom att bli den största organisationen på Hugging Face.

🔗 NVIDIA-blogg: AI Open and Proprietary


Claude Code v2.1.85 och v2.1.84 : konditionella hooks och PowerShell för Windows

26–27 mars — Två nya versioner av Claude Code släpptes.

v2.1.85 (27 mars) : introduktion av ett konditionellt fält if i hook-konfigurationen som gör det möjligt att utlösa en hook endast på vissa kommandon eller filer. Dessutom: miljövariabler för MCP-hjälpskript, tidsstämplar i transkriptioner för schemalagda uppgifter, OAuth-stöd enligt RFC 9728, och möjlighet för PreToolUse-hooks att tillfredsställa AskUserQuestion genom att returnera updatedInput.

v2.1.84 (~26 mars) : PowerShell på Windows tillgängligt i förhandsgranskning (opt-in preview) som ett inbyggt verktyg, hook TaskCreated (utlöses vid skapandet av en uppgift av Claude), HTTP-stöd för WorktreeCreate, och en återvändande prompt som visas efter 75 minuters inaktivitet. En behörighetsbugg för officiella plugin-skript på macOS/Linux åtgärdades.

🔗 Tweet @lydiahallie — v2.1.85


Z.ai GLM-5.1 tillgänglig för alla abonnenter på Coding Plan

27 mars — Z.ai (Zhipu) meddelar att GLM-5.1 nu är tillgänglig för alla abonnenter på GLM Coding Plan, oavsett abonnemangsgrad (Lite, Pro eller Max).

🔗 PANews: GLM-5.1 Coding Plan


Genspark integrerar Grok Imagine i sin videoagent

26 mars — Genspark har integrerat Grok Imagine (multibildsgenerering och videoextension) i sin Genspark AI Video Agent. Användare kan använda upp till 7 bilder för att skapa en video, eller förlänga en befintlig video upp till 10 sekunder.

🔗 Tweet @genspark_ai


Meta SAM 3.1 : spårning av 16 objekt i realtid, dubblerad hastighet

27 mars — Meta släpper SAM 3.1, en uppdatering av Segment Anything Model 3 för detektering och spårning av objekt i video i realtid. Den centrala innovationen är objektmultiplexering (object multiplexing): istället för ett separat pass per följt objekt behandlas alla objekt i ett enda pass (forward pass). Resultatet: upp till 16 objekt samtidigt, med en hastighet som går från 16 till 32 bildrutor per sekund på en GPU H100 — alltså en fördubbling — samtidigt som minnesförbrukningen minskas avsevärt.

Arkitekturen bygger på en Mux-Demux-encoder/decoder som delar en enda beräkning för alla objekt. En mekanism för globalt resonerande (global reasoning) förbättrar noggrannheten i scener med många element. SAM 3.1 är ett direkt ersättningsalternativ (drop-in replacement) för SAM 3 — ingen API-ändring krävs.

Modellen publiceras som open source: checkpoint finns att ladda ner på Hugging Face, källkoden uppdaterad på GitHub, forskningsartikel publicerad och en interaktiv demo tillgänglig.

🔗 Meta-blogg: SAM 3.1 🔗 Kod GitHub 🔗 Tweet @AIatMeta


Meta TRIBE v2 : en digital tvilling av mänsklig hjärnaktivitet

26 mars — Meta publicerar TRIBE v2, en prediktiv foundation-modell designad som en “digital tvilling” (digital twin) av neuronaktivitet. Modellen förutspår högupplösta fMRI-responser på nästan vilket ljud, bild eller text som helst, med en 70× högre upplösning än tidigare metoder. Tränad på data från över 700 frivilliga fungerar den i zero-shot-läge (zero-shot) för nya ämnen, språk och uppgifter utan omträning. Målet är att göra det möjligt för neuroforskare att snabbt testa hypoteser utan mänskliga experiment och att påskynda forskning om neurologiska sjukdomar. Modellen, koden och forskningsartikeln publiceras under licensen CC BY-NC.

🔗 Meta-blogg: TRIBE v2 🔗 Tweet @AIatMeta


Vad det betyder

Domstolens beslut i Amsterdam markerar ett regleringsskifte: det är första gången en europeisk jurisdiktion dömer xAI direkt för innehåll genererat av Grok, med ett avskräckande vite. Tillsammans med Europaparlamentets omröstning om sexuella deepfakes samma dag ritar detta upp en rättslig ram som successivt kommer att gälla alla leverantörer av generativ AI.

På verktygssidan för utvecklare illustrerar veckan kapplöpningen mot integration: Codex med sina inbyggda plugins, Copilot med konfliktlösning vid merge och synlighet för agenter i Issues/Projects, och Claude Code med sina konditionella hooks. AI-assistenter integreras allt djupare i befintliga arbetsflöden snarare än att ersätta dem.

Begränsningen av tillgången till Gemini Pro i gratis-CLI:n är en signal om att den generösa gratisperioden för CLI-verktyg börjar minska. Gemini, likt GitHub Copilot före det, konvergerar mot en freemium-modell där avancerade kapabiliteter kräver en prenumeration.

Slutligen bekräftar den planerade IPO:n för Kimi i Hongkong till 18 miljarder dollar attraktiviteten i värderingarna inom den kinesiska AI-sektorn, medan Mistral med Voxtral TTS fortsätter att positionera sina open-weight-modeller som ett alternativ till proprietära tal-syntestjänster.


Källor

Detta dokument har översatts från fr-versionen till sv-språket med hjälp av modellen gpt-5-mini. För mer information om översättningsprocessen, se https://gitlab.com/jls42/ai-powered-markdown-translator