Domstolen i Amsterdam förbjuder xAI att generera sexuella bilder utan samtycke med Grok, med böter på 100 000 € per dag. Samma dag lanserar Google Gemini 3.1 Flash Live för realtidssamtal i över 90 språk, OpenAI integrerar inbyggda plugins i Codex (Slack, Figma, Notion, Gmail) och Anthropic publicerar en teknisk artikel om utformningen av auto-läget i Claude Code. Cohere, Mistral och Suno kompletterar en vecka fylld av tillkännagivanden.
xAI : domstolen i Amsterdam förbjuder Grok-nakenbilder
27 mars — Amtsrätten i Amsterdam fattade ett beslut mot xAI som förbjuder företaget att generera eller sprida icke-samtyckta sexuella bilder i Nederländerna. Vid överträdelse löper böterna på €100 000 per dag, upp till ett tak på €10 miljoner.
Beslutet följer en gemensam anmälan från den nederländska NGO:n Offlimits och Victims Support Fund. Enligt Center for Countering Digital Hate (CCDH) genererade Grok 3 miljoner sexualiserade bilder på 11 dagar, varav 23 000 involverade minderåriga. Offlimits påpekar att Grok inte tar hänsyn till den geografiska platsen för den avbildade personen, vilket ger verktyget global räckvidd.
Beslutet kommer samma dag som Europaparlamentet röstade för ett förbud mot sexuella deepfakes genererade av AI — en stark signal om regleringskonvergens. Det är den första europeiska domen av detta slag som direkt riktar sig mot xAI.
🔗 CNBC : Nederländsk domstol förbjuder Grok AI-nakenbilder 🔗 The Record Media : Nederländsk domstol hotar xAI med böter
Gemini 3.1 Flash Live : realtidsljud i 90+ språk
26 mars — Google lanserar Gemini 3.1 Flash Live, sin multimodala modell för realtidssamtal. Den hanterar ljud, bilder, video och text med ett kontextfönster på 128 000 tokens och stödjer över 90 språk.
Jämfört med föregående generation klarar modellen av att upprätthålla konversationer som är dubbelt så långa, hanterar bakgrundsbrus och omgivningsljud bättre, följer komplexa systeminstruktioner med högre precision och triggar externa verktyg mer tillförlitligt under samtal. Allt genererat ljud märks med SynthID.
| Funktion | Detalj |
|---|---|
| Kontextfönster | 128 000 tokens |
| Språk | 90+ |
| Konversationer | 2× längre än tidigare |
| Watermarking | SynthID på allt ljud |
Tillgänglighet: via Live API i Google AI Studio (utvecklare), via Gemini Live och Search Live (användare, 200+ länder) och via Vertex AI (företag). Search Live utökar också tillgången till över 200 länder och territorier, med stöd för video via Google Lens.
🔗 Officiellt meddelande från Google
Gemini : import av minnen och historik från ChatGPT och Claude
26 mars — Google lanserar ett importverktyg i Gemini-appen för att förenkla migrering från andra AI-assistenter.
Två funktioner är tillgängliga:
-
Import av minnen (“Add Memory”) : Gemini föreslår en prompt att skriva i ChatGPT, Claude eller Copilot. Det genererade svaret (en sammanfattning av de personliga data som det andra verktyget har memorerat) kopieras och klistras in i Gemini, som extraherar preferenser, intressen, platsinformation osv.
-
Import av historik (“Import Chats”) : uppladdning av en fil
.zipexporterad från ChatGPT eller Claude, upp till 5 GB. Tidigare konversationer blir sökbara och kan återupptas i Gemini.
🔗 Google-blogg : Byt till Gemini-appen
Gemini CLI v0.35.2 : subagents som standard, förbättrat Vim — och Pro-åtkomst begränsad
25–26 mars — Den stabila versionen v0.35.2 av Gemini CLI introducerar flera betydande funktioner.
| Funktion | Beskrivning |
|---|---|
| Subagents aktiverade som standard | Parallell uppgiftsschemaläggare + kodsegmentering |
| Anpassningsbara snabbkommandon | Stöd för keybindings, literal characters, Kitty-protokoll |
| Förbättrat Vim-läge | Motions X, ~, r, f/F/t/T ; kopiera-klistra med unnamed register |
| Enhetlig SandboxManager | Isolation av verktyg med bubblewrap/seccomp på Linux |
| JIT-kontinuitetsupptäckt | Optimerad inladdning för filesystem-verktyg |
| gRPC inbyggt | Inbyggd integration och protokollrouting |
Policyändring av betydelse: från och med 25 mars har gratisanvändare endast tillgång till Gemini Flash. Tillgång till Gemini Pro är reserverad för betalande abonnemang (Pro och Ultra). Gemenskapens reaktion är i stort sett negativ. Google skärper också missbruksdetektering: användning av OAuth-autentisering för Gemini CLI med tredjepartsprogram kan nu leda till begränsningar.
🔗 Changelog Gemini CLI 🔗 Gemenskapsdiskussion
Gemini Drop mars 2026 : Personal Intelligence gratis och Lyria 3 Pro
27 mars — Månadens “Gemini Drops” för mars 2026 presenterar nya funktioner i Gemini-appen som rullats ut den här månaden.
| Funktion | Beskrivning | Tillgänglighet |
|---|---|---|
| Personal Intelligence gratis | Koppling till Gmail, Photos, YouTube för att planera resor/projekt | Gratis, USA |
| Gemini Live förbättrat | Baserat på Gemini 3.1 Flash Live, kontext 2× längre | Alla användare |
| Import ChatGPT/Claude | Överför minnen och historik | Alla användare |
| Lyria 3 Pro | Musikskapande upp till 3 minuter, bilder → anthems | Abonnenter |
| Google TV | Visuella Gemini-svar och berättarröster | Google TV |
Codex : inbyggda plugins för Slack, Figma, Notion och Gmail
26–27 mars — OpenAI rullar ut plugins som en förstklassig funktion i Codex. Utvecklare kan koppla Codex till de verktyg de använder dagligen utan manuell konfiguration.
| Plugin | Användningsfall |
|---|---|
| Slack | Skicka meddelanden, läsa kanaler |
| Figma | Åtkomst till designs, generera kod |
| Notion | Läsa och skriva sidor |
| Gmail | Läsa och skriva e-post |
Plugins synkroniseras automatiskt vid start av Codex och nås via kommandot /plugins. Installation och avinstallation görs direkt från TUI-gränssnittet med inbyggd hantering av autentisering.
Den 27 mars publicerade OpenAI ett galleri med praktiska användningsfall tillgängliga med ett klick: bygga iOS-appar, analysera dataset, generera rapporter och presentationer. Changelog för Codex v0.117.0 beskriver de tekniska funktionerna, inklusive stöd för att nämna plugins i prompts.
🔗 Dokumentation för Codex-plugins 🔗 Tweet @OpenAIDevs
Anthropic : hur auto-läget i Claude Code är utformat
26 mars — Anthropic publicerade en teknisk bloggartikel om utformningen av sitt auto-läge (auto mode) i Claude Code, publicerad på Engineering-bloggen.
Problemet som adresseras : användare av Claude Code drabbas av godkännandettrötthet (approval fatigue). Statistik visar att 93 % av tillståndsförfrågningarna accepteras — vilket antyder att delvis automatisering är möjlig utan att offra säkerheten.
Lösningen : två lager av klassificerare
Auto-läget bygger på två skyddsnivåer baserade på modeller (Sonnet 4.6):
- Ingångslager : en probe för promptinjektion (prompt injection probe) analyserar verktygens resultat innan de når agenten.
- Utgångslager : en transkriptionsklassificerare utvärderar varje föreslagen åtgärd via en tvåstegsprocess innan den utförs.
| Nivå | Typ av åtgärd | Behandling |
|---|---|---|
| Tier 1 | Säkra verktyg (läsa filer, sökning) | Direktpassage, utan klassificerare |
| Tier 2 | Ändringar av filer i projektet | Omskrivning av klassificerare (granskningsbara via versionskontroll) |
| Tier 3 | Farliga åtgärder (shell-kommandon, externa operationer) | Fullständig utvärdering av klassificeraren |
Prestandamått :
| Steg | Falskt positiva andel (riktig trafik) | Falskt negativa andel (riskfyllda åtgärder) |
|---|---|---|
| Steg 1 (snabb) | 8,5 % | 6,6 % |
| Full pipeline | 0,4 % | 17 % |
Den falskt positiva andelen på 0,4 % för hela pipelinen betyder att auto-läget nästan aldrig avbryter arbete felaktigt. Den falskt negativa andelen på 17 % speglar fall där klassificeraren upptäcker en risk men misstolkar användarens beviljade behörighetsomfång.
“New on the Engineering Blog: How we designed Claude Code auto mode. Many Claude Code users let Claude work without permission prompts. Auto mode is a safer middle ground: we built and tested classifiers that make approval decisions instead.”
🇸🇪 På Engineering-bloggen: hur vi utformade auto-läget i Claude Code. Många användare låter Claude arbeta utan att begära tillstånd. Auto-läget är ett säkrare kompromiss: vi har byggt och testat klassificerare som fattar godkännandebesluten åt dem. — @AnthropicAI på X
🔗 Claude Code auto mode: ett säkrare sätt att hoppa över tillstånd
GitHub Copilot : lösning av merge-konflikter och synlighet för agenter
26 mars — Två större uppdateringar av GitHub Copilot förbättrar teamens arbetsflöden.
Lösning av merge-konflikter : det är nu möjligt att nämna @copilot i en pull request-kommentar för att be den lösa konflikter. Agenten arbetar i sin molnmiljö, löser konflikterna, verifierar att build och tester passerar och pushar sedan ändringarna. Finns för alla betalplaner för Copilot (Business/Enterprise kräver adminaktivering).
Synlighet för agenter i Issues och Projects : när en kodagent (Copilot, Claude, Codex) tilldelas en issue visas dess session under assignee i sidofältet med realtidsstatus — i kö, pågående, väntar på granskning, klar. Sessioner syns även i tabell- och board-vyerna i Projects (aktiveras via “View menu > Show agent sessions”).
🔗 Copilot löser merge-konflikter 🔗 Agentaktivitet i Issues och Projects
GitHub : ny PR-instrumentpanel och Copilot for Jira
25–26 mars — Ytterligare två förbättringar för utvecklare på GitHub.
Pull Requests-instrumentpanel (publik preview) : en omarbetad instrumentpanel på github.com/pulls centraliserar PRs som behöver uppmärksamhet — begärda granskningar, åtgärder som krävs, redo att mergas. Anpassade sparade vyer, avancerade filter med autokomplettering och stöd för AND/OR-frågor kompletterar gränssnittet. Aktiveras via Feature Preview-inställningarna.
Copilot for Jira : sedan lanseringen i publik preview har flera förbättringar gjorts: val av AI-modell direkt från Jira, automatisk inklusion av Jira-ticketnummer i PR-titel och branchnamn samt åtkomst till Confluence-sidor via Atlassians MCP-server (konfigurerbart med PAT).
🔗 Ny PR-instrumentpanel 🔗 Förbättringar i Copilot for Jira
Cohere Transcribe : #1 i open-source ASR-ranking
26 mars — Cohere lanserar Cohere Transcribe, sin första modell för automatisk taligenkänning (ASR). Tillgänglig open-source under Apache 2.0-licens, den intar direkt förstaplatsen i Open ASR-ranking på Hugging Face för engelska.
Modellen bygger på en Fast-Conformer Transformer encoder-decoder-arkitektur med 2 miljarder parametrar. Mer än 90 % av parametrarna tilldelas encodern, med en lättviktig decoder för att minimera autoregressivt beräkning och maximera hastigheten. Tränad på 500 000 timmar parat ljud-transkription.
| Modell | Genomsnittlig WER |
|---|---|
| Cohere Transcribe | 5,42 |
| Zoom Scribe v1 | 5,47 |
| IBM Granite 4.0 1B | 5,52 |
| NVIDIA Canary Qwen 2.5B | 5,63 |
| OpenAI Whisper Large v3 | 7,44 |
WER (Word Error Rate — ordfelprocent) på 5,42 % placerar Cohere Transcribe i topp. Inferenzhastigheten är 3× snabbare än konkurrenter av jämförbar storlek. 14 språk stöds (inklusive franska, tyska, arabiska, mandarin-kinesiska, japanska och koreanska).
Begränsningar att notera : modellen är inte designad för code-switching (språkbyte under ljudet) och kan transkribera icke-vokala ljud — ett VAD-filter (Voice Activity Detection) rekommenderas.
🔗 Cohere-blogg : Transcribe 🔗 Modell på Hugging Face
Suno v5.5 : personlig röst, skräddarsydda modeller, adaptiva preferenser
26 mars — Suno släpper version 5.5 av sitt musikgenereringsverktyg, med tre nya funktioner fokuserade på personalisering.
| Funktion | Beskrivning | Tillgänglighet |
|---|---|---|
| Voices | Spela in och använda sin egen sjungna röst (förblir privat) | Alla användare |
| Custom Models | Fine-tuning från egna kompositioner, upp till 3 modeller | Pro/Premier-abonnenter |
| My Taste | Adaptiv inlärning av genre- och stämningspreferenser | Alla användare |
Dessa verktyg presenteras som grunden för nästa generations modeller som utvecklas i samarbete med musikindustrin.
Mistral Voxtral TTS : röstkloning på 3 sekunder, open-weight
23 mars (pressbevakning 26–27 mars) — Mistral publicerar Voxtral TTS, sin första open-weight-modell för text-till-tal. Modellen voxtral-tts-2603 har 4 miljarder parametrar och stöder 9 språk (engelska, franska, tyska, spanska, nederländska, portugisiska, italienska, hindi, arabiska).
Den rapporterade latenstiden är 70 ms för en typisk konfiguration (exempel på 10 sekunder + 500 tecken). Röstkloning fungerar från endast 3 sekunder referensljud. Vad gäller naturlighet uppger Mistral att Voxtral överträffar ElevenLabs Flash v2.5 och når paritet med ElevenLabs v3. Modellen kan köras på en vanlig laptop, ett mid-range GPU eller en high-end mobil enhet. Åtkomst : vikter tillgängliga på Hugging Face (licens Creative Commons) och via Mistral Studio API till 0,016 dollar per 1 000 tecken. Integration av voice mode tillgänglig i Le Chat.
🔗 Mistral Voxtral-tillkännagivande
xAI : SuperGrok Lite för 10 dollar/mån och videostories på 15 sekunder
25 mars — xAI meddelade två nyheter kring Grok.
SuperGrok Lite : en ny abonnemangsplan på 10 dollar per månad, för närvarande i begränsad testning. Den inkluderar chatt-sessioner som är dubbelt så långa som på gratisnivån, en AI-agent och videogenerering i 480p (max 6 sekunder). Planen placeras mellan gratisnivån och SuperGrok Standard (30 dollar per månad).
Video stories via Grok Imagine : Grok Imagine genererar nu “videostories” på 15 sekunder i 720p med synkroniserat ljud, bakgrundsmusik och ljudeffekter. Elon Musk uppgav att han vill “doubla insatsen” på video. Detta tillkännagivande kommer i samband med att OpenAI stängde Sora samma vecka.
🔗 Bloomberg: xAI doubling down on AI videos
Kimi/Moonshot AI överväger börsintroduktion i Hongkong
26 mars — Moonshot AI, det kinesiska företaget bakom modellen Kimi, överväger en börsintroduktion på Hongkongs börs, enligt Bloomberg. Rådgivande banker sägs vara CICC och Goldman Sachs, med en målvärdering på omkring 18 miljarder dollar och en pågående finansiering på upp till 1 miljard dollar. Nuvarande aktieägare inkluderar Alibaba, Tencent och 5Y Capital. Tidpunkten för IPO:n är fortfarande osäker.
🔗 Bloomberg: Moonshot considers Hong Kong IPO
NVIDIA GTC : proprietär och öppen AI är inte motstridiga
25 mars — Under GTC 2026 sade NVIDIA och branschledare (Mistral, Perplexity, Cursor, Reflection AI, LangChain) att framtiden för AI ligger i kompletterbarheten mellan öppna och proprietära modeller. Jensen Huang sammanfattade NVIDIAs ståndpunkt: “Proprietary versus open is not a thing. It’s proprietary and open.”
Blogginlägget betonar behovet av orkestrering över flera modeller, multi-cloud och multimodalt för företag. NVIDIA bekräftar sitt open source-engagemang genom att bli den största organisationen på Hugging Face.
🔗 NVIDIA-blogg: AI Open and Proprietary
Claude Code v2.1.85 och v2.1.84 : konditionella hooks och PowerShell för Windows
26–27 mars — Två nya versioner av Claude Code släpptes.
v2.1.85 (27 mars) : introduktion av ett konditionellt fält if i hook-konfigurationen som gör det möjligt att utlösa en hook endast på vissa kommandon eller filer. Dessutom: miljövariabler för MCP-hjälpskript, tidsstämplar i transkriptioner för schemalagda uppgifter, OAuth-stöd enligt RFC 9728, och möjlighet för PreToolUse-hooks att tillfredsställa AskUserQuestion genom att returnera updatedInput.
v2.1.84 (~26 mars) : PowerShell på Windows tillgängligt i förhandsgranskning (opt-in preview) som ett inbyggt verktyg, hook TaskCreated (utlöses vid skapandet av en uppgift av Claude), HTTP-stöd för WorktreeCreate, och en återvändande prompt som visas efter 75 minuters inaktivitet. En behörighetsbugg för officiella plugin-skript på macOS/Linux åtgärdades.
🔗 Tweet @lydiahallie — v2.1.85
Z.ai GLM-5.1 tillgänglig för alla abonnenter på Coding Plan
27 mars — Z.ai (Zhipu) meddelar att GLM-5.1 nu är tillgänglig för alla abonnenter på GLM Coding Plan, oavsett abonnemangsgrad (Lite, Pro eller Max).
Genspark integrerar Grok Imagine i sin videoagent
26 mars — Genspark har integrerat Grok Imagine (multibildsgenerering och videoextension) i sin Genspark AI Video Agent. Användare kan använda upp till 7 bilder för att skapa en video, eller förlänga en befintlig video upp till 10 sekunder.
Meta SAM 3.1 : spårning av 16 objekt i realtid, dubblerad hastighet
27 mars — Meta släpper SAM 3.1, en uppdatering av Segment Anything Model 3 för detektering och spårning av objekt i video i realtid. Den centrala innovationen är objektmultiplexering (object multiplexing): istället för ett separat pass per följt objekt behandlas alla objekt i ett enda pass (forward pass). Resultatet: upp till 16 objekt samtidigt, med en hastighet som går från 16 till 32 bildrutor per sekund på en GPU H100 — alltså en fördubbling — samtidigt som minnesförbrukningen minskas avsevärt.
Arkitekturen bygger på en Mux-Demux-encoder/decoder som delar en enda beräkning för alla objekt. En mekanism för globalt resonerande (global reasoning) förbättrar noggrannheten i scener med många element. SAM 3.1 är ett direkt ersättningsalternativ (drop-in replacement) för SAM 3 — ingen API-ändring krävs.
Modellen publiceras som open source: checkpoint finns att ladda ner på Hugging Face, källkoden uppdaterad på GitHub, forskningsartikel publicerad och en interaktiv demo tillgänglig.
🔗 Meta-blogg: SAM 3.1 🔗 Kod GitHub 🔗 Tweet @AIatMeta
Meta TRIBE v2 : en digital tvilling av mänsklig hjärnaktivitet
26 mars — Meta publicerar TRIBE v2, en prediktiv foundation-modell designad som en “digital tvilling” (digital twin) av neuronaktivitet. Modellen förutspår högupplösta fMRI-responser på nästan vilket ljud, bild eller text som helst, med en 70× högre upplösning än tidigare metoder. Tränad på data från över 700 frivilliga fungerar den i zero-shot-läge (zero-shot) för nya ämnen, språk och uppgifter utan omträning. Målet är att göra det möjligt för neuroforskare att snabbt testa hypoteser utan mänskliga experiment och att påskynda forskning om neurologiska sjukdomar. Modellen, koden och forskningsartikeln publiceras under licensen CC BY-NC.
🔗 Meta-blogg: TRIBE v2 🔗 Tweet @AIatMeta
Vad det betyder
Domstolens beslut i Amsterdam markerar ett regleringsskifte: det är första gången en europeisk jurisdiktion dömer xAI direkt för innehåll genererat av Grok, med ett avskräckande vite. Tillsammans med Europaparlamentets omröstning om sexuella deepfakes samma dag ritar detta upp en rättslig ram som successivt kommer att gälla alla leverantörer av generativ AI.
På verktygssidan för utvecklare illustrerar veckan kapplöpningen mot integration: Codex med sina inbyggda plugins, Copilot med konfliktlösning vid merge och synlighet för agenter i Issues/Projects, och Claude Code med sina konditionella hooks. AI-assistenter integreras allt djupare i befintliga arbetsflöden snarare än att ersätta dem.
Begränsningen av tillgången till Gemini Pro i gratis-CLI:n är en signal om att den generösa gratisperioden för CLI-verktyg börjar minska. Gemini, likt GitHub Copilot före det, konvergerar mot en freemium-modell där avancerade kapabiliteter kräver en prenumeration.
Slutligen bekräftar den planerade IPO:n för Kimi i Hongkong till 18 miljarder dollar attraktiviteten i värderingarna inom den kinesiska AI-sektorn, medan Mistral med Voxtral TTS fortsätter att positionera sina open-weight-modeller som ett alternativ till proprietära tal-syntestjänster.
Källor
- CNBC: Holländsk domstol förbjuder Grok AI-nudebilder
- The Record Media: Holländsk domstol hotar xAI med böter
- Al Jazeera: Holländsk domstol förbjuder xAI Grok från att generera icke-samtyckta nakna bilder
- Google-blogg: Gemini 3.1 Flash Live
- Google-blogg: Gemini 3.1 Flash Live — utvecklare
- Google-blogg: Switch to Gemini
- Google-blogg: Gemini Drop mars 2026
- Changelog Gemini CLI
- Diskussion om policy Gemini CLI
- TechCrunch: Gemini importerar ChatGPT/Claude
- Dokumentation plugins Codex
- Tweet @OpenAIDevs — plugins
- Anthropic Engineering: Claude Code auto mode
- Tweet @AnthropicAI — auto mode
- GitHub Changelog: Copilot löser merge-konflikter
- GitHub Changelog: Agentaktivitet i Issues och Projects
- GitHub Changelog: Ny PR-instrumentpanel i offentlig förhandsgranskning
- GitHub Changelog: Copilot for Jira
- Cohere-blogg: Transcribe
- Hugging Face: Cohere Transcribe
- TechCrunch: Cohere Transcribe
- Suno Blog v5.5
- Mistral Voxtral TTS
- TechCrunch: Mistral Voxtral
- Bloomberg: xAI doubling down on videos
- Bloomberg: Moonshot IPO Hong Kong
- NVIDIA-blogg GTC: Open and Proprietary AI
- Tweet @lydiahallie — Claude Code v2.1.85
- PANews: GLM-5.1 Coding Plan
- Tweet @genspark_ai
- Meta-blogg: SAM 3.1
- GitHub SAM 3
- Tweet @AIatMeta — SAM 3.1
- Meta-blogg: TRIBE v2
- Tweet @AIatMeta — TRIBE v2
Detta dokument har översatts från fr-versionen till sv-språket med hjälp av modellen gpt-5-mini. För mer information om översättningsprocessen, se https://gitlab.com/jls42/ai-powered-markdown-translator