Två intensiva dagar den 23 och 24 mars: Anthropic rullar ut auto mode i Claude Code — en åtgärdsklassificerare som fattar godkännandebeslut i användarens ställe — och publicerar en ingenjörsartikel om sin multi-agent-arkitektur inspirerad av GAN. OpenAI lanserar visuell shopping i ChatGPT med Agentic Commerce Protocol, medan xAI öppnar Grok Imagine för multi-image-video via API. GitHub Copilot, Google DeepMind och Anthropic Science Blog kompletterar denna överblick.
Claude Code: auto mode, en klassificerare mellan dig och kommandona
24 mars — Claude Code lägger till en tredje behörighetsnivå: auto mode. Hittills erbjöd verktyget antingen att manuellt godkänna varje filskrivning och bash-kommandon, eller att helt stänga av kontrollerna. Auto mode introducerar en mellanväg: Claude fattar själv besluten, omgärdad av en klassificerare (classifier) som analyserar varje åtgärd före körning.
Mekanismen är enkel — före varje verktygsanrop bedömer klassificeraren om åtgärden är potentiellt destruktiv. Åtgärder som bedöms som säkra körs automatiskt. Riskabla åtgärder blockeras, och Claude söker en alternativ metod utan att avbryta användaren.
Anthropic preciserar att detta läge minskar riskerna utan att eliminera dem, och rekommenderar användning i isolerade miljöer. För att aktivera det: claude --enable-auto-mode, och sedan navigera till detta läge med Shift+Tab.
Funktionen finns tillgänglig som förhandsversion (research preview) i Team-planen. Utrullning för Enterprise och API var aviserad för de följande dagarna.
New in Claude Code: auto mode. Instead of approving every file write and bash command, or skipping permissions entirely, auto mode lets Claude make permission decisions on your behalf. Safeguards check each action before it runs.
🇫🇷 Nouveau dans Claude Code : l’auto mode. Au lieu d’approuver chaque écriture de fichier et chaque commande bash, ou d’ignorer complètement les permissions, l’auto mode laisse Claude prendre les décisions d’approbation à votre place. Des protections vérifient chaque action avant son exécution. — @claudeai sur X
Multi-agent-arkitektur: Anthropic Engineerings GAN-inspirerade angreppssätt
24 mars — I en artikel publicerad på Anthropic Engineering Blog beskriver Prithvi Rajasekaran (Labs-teamet) en multi-agent-arkitektur för att tänja på Claude-gränserna inom två områden: gränssnittsdesign och långvarig autonom applikationsutveckling.
Angreppssättet inspireras av generativa adversariella nätverk (Generative Adversarial Networks, GAN): en genererande agent producerar koden eller designen, medan en separat utvärderande agent bedömer resultatet och ger kritisk återkoppling. Denna uppdelning löser ett känt problem — Claude tenderar att överskatta sig själv i utvärderingar. En dedikerad utvärderare, gradvis kalibrerad med exempel, blir en effektiv förbättringsdrivare.
För frontend-design får utvärderaren tillgång till MCP Playwright för att navigera i sidor live. Fyra kriterier används: designkvalitet och konsekvens, originalitet (med straff för generiska mönster kallade “AI slop”), tekniskt hantverk och funktionalitet. På 10 till 15 iterationer producerar generatorn markant mer distinkta gränssnitt.
För applikationsutveckling lägger arkitekturen till en planerare: den omvandlar en enradig prompt till en fullständig produktspecifikation. Generator och utvärderare förhandlar om “sprintkontrakt” före varje implementation och definierar framgångskriterierna. Utvärderaren testar applikationen via Playwright och kan underkänna en sprint, vilket tvingar fram en revidering.
| Tillvägagångssätt | Tid | Kostnad | Resultat |
|---|---|---|---|
| Ensam Opus 4.5-agent | 20 min | 9 $ | Trasig applikation |
| Fullt harness | 6 h | 200 $ | Fungerande applikation |
| Harness med Opus 4.6 | 4 h | 124,70 $ | Fungerande applikation + inbyggd Claude-agent |
Med Opus 4.6 — som inte längre lider av “kontextångest” — kunde författaren förenkla arkitekturen, ta bort sessionsresets och sänka kostnaderna. Den vägledande principen är fortfarande: granska harness regelbundet för att ta bort det som modellen nu kan göra själv.
🔗 Fullständig artikel 🔗 Tillkännagivande på X
Computer Use i Cowork och Claude Code (macOS, Pro/Max)
23 mars — Claude kan nu använda din dator för att utföra uppgifter direkt. I förhandsversion finns funktionen tillgänglig i Claude Cowork och Claude Code, endast på macOS.
Claude kan öppna appar, navigera i webbläsaren, fylla i kalkylblad. Idén: ge en uppgift från mobilen, göra något annat och komma tillbaka till ett färdigt arbete. Det går också att definiera återkommande uppgifter — skanna e-post varje morgon, generera en rapport varje fredag.
Funktionen Computer Use finns på Pro- och Max-planerna, genom att uppdatera skrivbordsappen och koppla den till mobilappen.
🔗 Tillkännagivande på X 🔗 Produktsida för Cowork
Anthropic Economic Index: “Learning curves” (5:e rapporten)
24 mars — Anthropic publicerar sin femte rapport i Anthropic Economic Index, med titeln “Learning curves”, baserad på Claude-användningsdata från februari 2026 (cirka 1 miljon konversationer, från 5 till 12 februari).
Rapporten dokumenterar två stora förändringar sedan november 2025. Först, en diversifiering av användningen: de tio vanligaste uppgifterna på Claude.ai står inte längre för mer än 19 % av trafiken, jämfört med 24 % tre månader tidigare. Denna trend förklaras delvis av att kodningsuppgifter flyttar till API, drivet av tillväxten för Claude Code.
Sedan, effekten av “inlärningskurvan”: långvariga användare (mer än sex månader) uppvisar en framgångsgrad som är 4 till 5 procentenheter högre. De arbetar med mer komplexa problem, samarbetar mer och delegerar mindre i automatiskt läge. Författarna ser detta som ett tecken på lärande genom att göra (learning-by-doing), även om en överlevnadsbias fortfarande kan förekomma.
När det gäller modellval bekräftar datan att användare prioriterar Opus för uppgifter med högt värde: varje steg om 10 $/h i uppskattat värde för en uppgift åtföljs av en ökning på 1,5 procentenhet i andelen Opus-användning på Claude.ai, och 2,8 procentenheter på API.
🔗 Fullständig rapport 🔗 Tillkännagivande på X
Anthropic Science Blog: en ny blogg för AI i vetenskaplig forskning
23 mars — Anthropic lanserar Anthropic Science Blog, ägnad åt skärningspunkten mellan AI och vetenskaplig forskning. Målet är att dokumentera hur AI påskyndar forskarnas arbete och att utforska de frågor som denna omvandling väcker.
Bloggen kommer att publicera tre typer av innehåll: fördjupande artiklar om specifika resultat med AI:s roll i detalj (Features), praktiska guider per vetenskapsområde (Workflows), samt översikter över domänens nyheter (Field notes).
Två inledande artiklar följer med lanseringen: “Vibe physics: The AI grad student” av Matthew Schwartz (en fysiker som övervakas av Claude under en verklig beräkning), och en handledning om orkestrering av Claude Code för flerdagars vetenskapliga uppgifter.
Denna blogg är förankrad i Anthropics befintliga initiativ: programmet AI for Science (API-krediter för forskare), Claude for Life Sciences (partnerskap med pharma och biotech), och Genesis Mission.
🔗 Lanseringsartikel 🔗 Tillkännagivande på X
Visuell shopping i ChatGPT och Agentic Commerce Protocol
24 mars — OpenAI lanserar en visuellt och immersivt köpupplevelse direkt i ChatGPT. Användare kan bläddra bland produkter visuellt, jämföra dem sida vid sida med detaljer (pris, recensioner, egenskaper), och förfina sin sökning i konversation — utan att lämna ChatGPT. Det går också att ladda upp ett inspirationsfoto för att hitta liknande artiklar.
För att driva denna funktion utökar OpenAI Agentic Commerce Protocol (ACP) till produktupptäckt. Detta protokoll blir anslutningslagret mellan handlare och användare: handlarna delar sina kataloger via ACP, och data förs direkt in i ChatGPT. Salesforce och Stripe är redan integrerade som tredjepartsleverantörer.
| Detalj | Info |
|---|---|
| Tillgänglighet | Alla Free-, Go-, Plus- och Pro-användare — utrullning denna vecka |
| Bilduppladdning | Inspirationsfoto för att hitta liknande artiklar |
| Integrerade handlare | Target, Sephora, Nordstrom, Lowe’s, Best Buy, The Home Depot, Wayfair |
| Shopify | Kataloger redan integrerade utan åtgärd från handlarna |
Walmart är den första handlaren som erbjuder en ChatGPT-native app: från upptäckt i ChatGPT till en Walmart-miljö med kontolänkning, lojalitetsprogram och betalningar. Tillgänglig i webbläsare, iOS och Android kommer senare. Obs: OpenAI överger sin ursprungliga funktion “Instant Checkout”, som ansågs otillräckligt flexibel för handlare, och fokuserar på upptäckt.
OpenAI: säkerhetspolicies för tonåringar med öppen källkod
24 mars — OpenAI publicerar en uppsättning säkerhetspolicies med öppen källkod för att hjälpa utvecklare att skapa upplevelser anpassade för tonåringar. Dessa policies presenteras som prompts som kan användas direkt med gpt-oss-safeguard, OpenAI:s säkerhetsmodell med öppen vikt.
Målet: göra det möjligt för utvecklare att översätta abstrakta säkerhetsmål till precisa operativa regler. Sex områden omfattas:
| Område | Beskrivning |
|---|---|
| Grafiskt våldsamt innehåll | Filtrering av explicit våld |
| Grafiskt sexuellt innehåll | Filtrering av explicit sexualitet |
| Farliga kroppsideal | Ätstörningar, riskbeteenden |
| Farliga aktiviteter och utmaningar | Riskabla virala challenges |
| Romantiska eller våldsamma rollspel | Olämpliga interaktioner |
| Varor och tjänster reserverade för vuxna | Alkohol, tobak, spel om pengar |
Dessa policies har utvecklats med Common Sense Media och everyone.ai. Publicerade via ROOST Model Community (RMC GitHub) presenteras de uttryckligen som en utgångspunkt, inte som en fullständig lösning.
OpenAI Foundation: minst 1 miljard dollar utbetalda
24 mars — Bret Taylor, ordförande i styrelsen för OpenAI Foundation, meddelar att stiftelsen börjar fördela resurserna från omkapitaliseringen hösten 2025. Minst 1 miljard dollar kommer att investeras under året inom fyra områden: livsvetenskaper (Alzheimer, högdödlighetsjukdomar), sysselsättning och ekonomisk påverkan, AI-resiliens (barnsäkerhet, biosäkerhet) samt samhällsprogram.
OpenAI: Library-fliken för att hantera filer i ChatGPT
23 mars — OpenAI lägger till nya funktioner för filhantering i ChatGPT: nyliga filer direkt åtkomliga från verktygsfältet, möjlighet att fråga ut ett redan uppladdat dokument, och en Library-flik i webbens sidofält för att hitta alla filer. Tillgängligt för Plus-, Pro- och Business-prenumeranter, med utrullning på väg till Europeiska ekonomiska samarbetsområdet, Schweiz och Storbritannien.
Gemini 3.1 Flash-Lite: en webbläsare som genererar sidor i realtid
24 mars — Google DeepMind publicerar en demonstration av Gemini 3.1 Flash-Lite: en experimentell webbläsare som genererar varje webbsida i farten, allteftersom klick, sökningar och navigering sker. Ingen förhandsbefintlig HTML-sida — varje innehåll skapas i realtid av modellen. Demon är direkt tillgänglig via Google AI Studio och har genererat starkt engagemang (85 000 visningar på några timmar).
🔗 Demo i AI Studio 🔗 Tillkännagivande på X
Google DeepMind × Agile Robots: partnerskap inom robotik
24 mars — Google DeepMind tillkännager ett forskningspartnerskap med Agile Robots, specialist på humanoid robotik. Avtalet innebär att Gemini grundmodeller ska integreras i Agile Robots robot-hardware, inom ramen för Google DeepMinds Gemini Robotics-strategi.
Grok Imagine: multi-image-video på API (#1 Arena Elo 1342)
24 mars — xAI tillkännager två nya förmågor för sitt Grok Imagine-API: generering av video utifrån flera bilder (multi-image to video) och förlängning av befintlig video (video extension).
Utvecklare kan skicka in upp till 7 bilder som indata för att generera en sammanhängande video via modellen grok-imagine-video. API:t fungerar asynkront: man skickar in begäran och frågar sedan tills statusen done uppnås. Utdata stöder bildförhållandet 16:9 i 720p.
Enligt Design Arena tog Grok Imagine omedelbart förstaplatsen i Multi Image to Video Arena-rankingen med ett Elo-poäng på 1342.
🔗 @grok tillkännagivande 🔗 API-dokumentation för Imagine
GitHub Copilot: @copilot för att direkt ändra en PR
24 mars — GitHub Copilot kan nu direkt ändra vilken pull request som helst på begäran. Genom att nämna @copilot i en kommentar med en instruktion på naturligt språk — fixa misslyckade tester, åtgärda en review-kommentar, lägg till ett enhetstest — arbetar agenten i sin molnmiljö, validerar sitt arbete med tester och linters, och pushar sedan ändringarna till grenen. Det tidigare beteendet (att öppna en ny PR) är fortfarande tillgängligt om det uttryckligen begärs. Tillgängligt på alla betalda Copilot-planer.
GitHub Copilot: Gemini 3.1 Pro i JetBrains, Xcode och Eclipse
23 mars — GitHub Copilot utökar tillgängligheten för Gemini 3.1 Pro till JetBrains-IDE:er, Xcode och Eclipse. Modellen är nu tillgänglig via Copilot-modellväljaren i alla lägen (agent, ask, edit) på dessa miljöer, utöver de plattformar som redan stöds. I offentlig förhandsversion för Enterprise-, Business-, Pro- och Pro+-planerna.
GitHub Copilot: hantering av agentåtkomst per repository via API
24 mars — GitHub lanserar i offentlig förhandsversion ett REST API för att hantera Copilot coding agents åtkomst på organisationsnivå för repositories. Administratörer kan programmässigt tillåta agenten för inga, alla eller vissa specifika repositories — användbart för storskaliga utrullningar i företag.
GitHub Copilot: direktloggar i Raycast
20 mars — GitHub Copilot-tillägget för Raycast (launchern för macOS/Windows) gör det nu möjligt att övervaka coding agentens loggar i realtid utan att lämna launchern. Via kommandot “View Tasks”, följt av val av sessionen, kan utvecklare följa agentens förlopp i realtid. Tillgängligt för alla betalande Copilot-prenumeranter.
Vad detta betyder
Claude Codes auto mode är den mest betydelsefulla förändringen under denna period. Det flyttar den kognitiva bördan från användaren — ingen behöver längre godkänna varje kommando — samtidigt som ett säkerhetsnät upprätthålls via klassificeraren. Det är ett steg mot mer autonoma utvecklingsagenter, men inom en ram som uttryckligen rekommenderas för isolerade miljöer. Ingenjörsartikeln om multi-agent-harnesset kompletterar bilden: Anthropics riktning är tydligt mot agenter som arbetar länge och självständigt, med interna övervakningsstrukturer (dedikerad utvärderare, sprintkontrakt) snarare än mänsklig övervakning i varje steg.
På OpenAI:s sida markerar visuell shopping i ChatGPT en pivot mot kommersiella användningsfall för konsumenter. Agentic Commerce Protocol positionerar ChatGPT som ett mellanlager mellan handlare och konsumenter — en annan strategi än det rena API:et, som riktar sig direkt mot det transaktionella värdet.
Grok Imagine som når förstaplatsen i Arena-rankingen redan vid lanseringen på multi-image to video illustrerar hur snabbt xAI itererar på videogenerering. GitHub Copilot stärker å sin sida systematiskt sin coding agents autonomi: möjligheten att direkt ändra en befintlig PR minskar ytterligare antalet återkopplingsrundor mellan agenten och utvecklaren.
Källor
- Claude Code auto mode — @claudeai på X
- Computer Use i Cowork — @claudeai på X
- Anthropic Engineering Blog — Harness multi-agents
- Anthropic Economic Index — Learning curves
- Anthropic Science Blog — Lansering
- Visuell shopping i ChatGPT — OpenAI
- Säkerhetspolicyer för tonåringar — OpenAI
- OpenAI Foundation — Investering
- Library-fliken i ChatGPT — @OpenAI på X
- Flash-Lite Browser — @GoogleDeepMind på X
- Partnerskap Google DeepMind × Agile Robots
- Grok Imagine-video — @grok på X
- API-dokumentation för Grok Imagine
- Copilot @copilot i PR:er — GitHub Changelog
- Gemini 3.1 Pro i JetBrains/Xcode/Eclipse — GitHub Changelog
- API för agentåtkomst per repository — GitHub Changelog
- Copilot-loggar i Raycast — GitHub Changelog
Detta dokument har översatts från versionen fr till språket sv med hjälp av modellen gpt-5.4-mini. För mer information om översättningsprocessen, se https://gitlab.com/jls42/ai-powered-markdown-translator