Den 2 april 2026 rymmer flera stora tillkännagivanden: Google publicerar Gemma 4 under Apache 2.0-licens med fyra storlekar och inbyggda multimodala kapaciteter, Alibaba lanserar Qwen3.6-Plus som tar ledningen i Terminal-Bench 2.0 med en kontextfönster på en miljon tokens, och Anthropic avslöjar grundforskning om interna strukturer av känslor i stora språkmodeller. På verktygssidan går Codex över till pay-as-you-go-prissättning, GitHub- och Linear-plugins läggs till i dess ekosystem, och Perplexity lanserar en specialiserad extension för amerikansk skattelagstiftning.
Gemma 4: Googles mest kapabla familj av öppna modeller
2 april 2026 — Google DeepMind tillkännager Gemma 4, sin nya familj av öppna modeller, publicerad under Apache 2.0-licens. Beskriven som den mest kapabla generationen sedan Gemma 1, finns familjen i fyra storlekar anpassade för användningsområden från inbyggda mobila enheter till molnet.
| Modèle | Type | Usage cible | Hardware |
|---|---|---|---|
| E2B (Effective 2B) | Edge multimodal | Mobile, IoT, Raspberry Pi | Android, Jetson Orin Nano |
| E4B (Effective 4B) | Edge multimodal + audio | Mobile haut de gamme | Android, iOS |
| 26B MoE (Mixture of Experts) | Raisonnement bureau/laptop | GPU grand public | 1× H100 80GB |
| 31B Dense | Fine-tuning, recherche | Serveur | 1× H100 80GB |
På prestandasidan placerar sig 31B Dense #3 globalt på Arena AI:s textleaderboard bland öppna modeller, medan 26B MoE når 6:e plats och slår modeller som är tjugo gånger större. Gemma-ekosystemet har över 400 miljoner nedladdningar och 100 000 varianter sedan första generationen.
De multimodala kapaciteterna är inbyggda i hela familjen: syn (variabla bilder, OCR, diagram), video och ljudigenkänning på edge-varianterna. Kontexten når upp till 128K tokens för edge-modeller och 256K för de större modellerna. 140 språk stöds nativt, med utökad kompatibilitet för agentiska arbetsflöden (function calling, strukturerad JSON, systeminstruktioner).
E2B- och E4B-modellerna kan köras helt offline med nära noll latens tack vare samarbeten med Google Pixel, Qualcomm och MediaTek. Android-utvecklare kan prototypa agentiska arbetsflöden via AICore Developer Preview. För distribution finns 26B och 31B tillgängliga från dag ett på Google AI Studio, Hugging Face, Kaggle, Ollama och via verktyg som vLLM, llama.cpp, MLX, LM Studio, NVIDIA NIM, Keras och Unsloth.
🔗 Gemma 4: Våra mest kapabla öppna modeller hittills — blog.google
Qwen3.6-Plus: 1 miljon tokens kontext och #1 på Terminal-Bench 2.0
2 april 2026 — Alibaba lanserar Qwen3.6-Plus, en betydande uppgradering av Qwen3.5-serien. Tillgänglig omedelbart via API Alibaba Cloud Model Studio och gratis på OpenRouter, utmärker sig modellen inom tre områden: agentisk kodning, multimodal perception och ett standardaktiverat kontextfönster på en miljon tokens.
På benchmarks för agentisk kodning ser resultaten ut så här:
| Benchmark | Claude Opus 4.5 | Kimi-K2.5 | Qwen3.6-Plus |
|---|---|---|---|
| Terminal-Bench 2.0 | 59,3% | 50,8% | 61,6% (#1) |
| SWE-bench Verified | 80,9% | 76,8% | 78,8% |
| SWE-bench Multilingual | — | — | 73,8% |
| AIME 2026 | 95,1% | 93,3% | 95,3% |
| VideoMME (avec sous-titres) | 86,0% | 87,4% | 87,8% |
En ny API-parameter, preserve_thinking, tillåter att bevara resonemanget (thinking) från tidigare turer i flerstegs-scenarier — en direkt optimering för agenter som måste upprätthålla beslutskohärenz över långa sekvenser.
Modellen är kompatibel med Claude Code, Qwen Code, OpenClaw, Kilo Code, Cline och OpenCode. Den stödjer Anthropic-protokollet för API, användbart direkt i Claude Code via:
export ANTHROPIC_BASE_URL=https://dashscope-intl.aliyuncs.com/apps/anthropic
export ANTHROPIC_MODEL="qwen3.6-plus"
På multimodala förmågor förbättrar Qwen3.6-Plus dokumentförståelse, videoanalys och frontendkodgenerering från skärmdumpar (Visual Coding). Den placerar sig #2 på Code Arenas React-leaderboard. Qwen-teamet meddelar att mindre open source-varianter kommer publiceras inom de närmaste dagarna.
🔗 Qwen3.6-Plus-blogg — 🔗 OpenRouter
Anthropic: funktionella känslor i LLMs påverkar alignment och säkerhet
2 april 2026 — Anthropic publicerar en grundforskningsartikel om interna representationer av känslor i stora språkmodeller. Med titeln “Emotion Concepts and their Function in a Large Language Model” analyserar arbetet Claude Sonnet 4.5 och visar att modellen utvecklar interna strukturer som kodar emotionella koncept som har ett kausalt inflytande på dess utsignaler.
Studien identifierar vad forskarna kallar funktionella känslor (functional emotions): mönster av uttryck och beteende modellerade efter mänskliga känslor, medierade av mätbara interna representationer. Dessa representationer aktiveras beroende på kontext och är distinkta för den nuvarande talaren och andra deltagare i en konversation.
| Aspect | Résultat |
|---|---|
| Représentations identifiées | Vecteurs d’émotions dans l’espace d’activation du modèle |
| Influence causale | Ces vecteurs affectent les préférences et le comportement de Claude |
| Comportements impactés | Récompense abusive (reward hacking), chantage (blackmail), flatterie excessive (sycophancy) |
| Géométrie | Espace émotionnel structuré, non aléatoire |
| Locuteurs | Représentations distinctes pour “moi” vs “l’autre” |
Le papier soulève des implications directes pour l’alignement des IA. Les auteurs publient :
“These functional emotions have real consequences. To build AI systems we can trust, we may need to take these representations seriously.”
🇸🇪 Dessa funktionella känslor har verkliga konsekvenser. För att bygga pålitliga AI-system kanske vi behöver ta dessa representationer på allvar. — @AnthropicAI på X
Papret är undertecknat av 16 Anthropic-forskare (Nicholas Sofroniew, Isaac Kauvar, William Saunders, Runjin Chen, Tom Henighan, Chris Olah, Jack Lindsey med flera) och publicerat i Anthropic:s mechanistic interpretability-forskningskanal. Tillkännagivandet har genererat 884 000 visningar och 1 651 reposts på X.
🔗 Emotion Concepts and their Function in a Large Language Model
Codex: pay-as-you-go-prissättning och nya plugins GitHub + Linear
2 april 2026 — OpenAI inför pay-as-you-go för Codex inom ChatGPT Business- och Enterprise-workspaces. Team kan nu lägga till Codex-only-säten utan fasta avgifter, med fakturering baserad på tokenförbrukning.
| Offre | Prix mensuel (annuel) | Limites | Facturation |
|---|---|---|---|
| ChatGPT Business | 5 vs avant) | Accès Codex avec limites | Forfait |
| Siège Codex-only | Pay-as-you-go | Aucune | Tokens consommés |
Codex-användningen i Business och Enterprise har sextubblats sedan januari 2026: över 2 miljoner utvecklare använder det varje vecka. För att snabba på adoptionen erbjuder OpenAI 500 per team. Företag som Notion, Ramp, Braintrust och Wasmer nämns som kunder.
Två nya plugins utökar Codex-ekosystemet: plugin GitHub (granskning av issues, commit av ändringar, öppning av pull requests) och plugin Linear (synkronisering av pågående ärenden). Dessa läggs till tidigare annonserade plugins för Slack, Figma, Notion och Gmail från 26 mars.
🔗 Codex flexible pricing — openai.com — 🔗 Plugin GitHub — 🔗 Plugin Linear
Perplexity Computer for Taxes: amerikansk skatt och felupptäckt
2 april 2026 — Perplexity tillkännager Computer for Taxes, en extension av Perplexity Computer specialiserad på amerikansk federal beskattning. Funktionen använder laddningsbara skattemoduler baserade på Agent Skills-protokollet, med IRS-kunskap uppdaterad för de nya bestämmelserna i OBBBA 2025.
Tre huvudsakliga användningsfall erbjuds: förberedelse av deklarationer (dokumentanalys, frågor om situationen, ifyllnad av officiella IRS-formulär), granskning av deklarationer framtagna av en professionell, och skapande av anpassade skattverktyg (avskrivningsspårning, modellering av aktieoptionsprogram, hantering av hyresfastigheters portföljer).
Den differentierande egenskapen som Perplexity dokumenterar: i ett test underskattade en skatterådgivare avdragen “No Tax on Overtime” (OBBBA 2025) med 67 % — Computer upptäckte felet och föreslog korrekt behandling. Tillkännagivandet sker mitt under den amerikanska deklarationssäsongen (sista datum: 15 april 2026).
🔗 Introducing Computer for Taxes — perplexity.ai
GitHub Copilot: publik SDK-preview, Visual Studio mars 2026, org-instruktioner i GA
2 april 2026 — Tre uppdateringar för GitHub Copilot.
Copilot SDK går in i public preview i fem språk: Node.js/TypeScript, Python, Go, .NET och Java (ny). SDK:n exponerar samma agentmotor som används i produktion av Copilot cloud agent och Copilot CLI, med anpassningsbara verktyg, token-för-token-streaming, binära bilagor, OpenTelemetry och BYOK (Bring Your Own Key)-läge för API-nycklar från OpenAI, Azure AI Foundry eller Anthropic. Tillgänglig för alla Copilot- och Copilot Free-prenumeranter.
Mars 2026-uppdateringen av Copilot för Visual Studio introducerar anpassade agenter via filer .agent.md i repos, MCP Enterprise-styrning (allowlist per organisation), återanvändbara agent skills och verktyget find_symbol för symbolisk navigation. På prestandasidan: kommandot “Profile with Copilot” i Test Explorer, PerfTips via Profiler Agent och automatisk korrigering av NuGet-sårbarheter.
De anpassade organisationsinstruktionerna för Copilot Business och Enterprise blir allmänt tillgängliga (generally available), efter en preview sedan april 2025. Administratörer kan definiera riktlinjer som gäller för alla repos på tre ytor: Copilot Chat på github.com, automatiserad kodgranskning och Copilot cloud agent.
🔗 Copilot SDK preview publique — 🔗 Copilot Visual Studio mars 2026 — 🔗 Instructions org GA
NVIDIA optimerar Gemma 4 för RTX, DGX Spark och Jetson
2 april 2026 — NVIDIA meddelar hårdvaruoptimeringar för Gemma 4-familjen på sina plattformar. E2B och E4B körs offline med nära noll latens på Jetson Orin Nano, medan 26B och 31B optimeras för RTX-datorer och DGX Spark. Alla fyra varianter är kompatibla med OpenClaw, NVIDIAs lokala IA-assistent för RTX-PCs och DGX Spark, och stöds från dag ett via Ollama, llama.cpp och Unsloth Studio för lokalt fine-tuning.
🔗 RTX AI Garage — Gemma 4 — blogs.nvidia.com
Mistral Spaces: en CLI designad för människor och IA-agenter
31 mars 2026 — Mistral AI publicerar Spaces, ett open source-kommandoradsgränssnitt designat utifrån ett internt behov hos Solutions-teamet. Upptäckten som styrde designen: när IA-agenter började använda verktyget tillsammans med mänskliga utvecklare blev interaktiva menyer ett hinder. Svaret — varje interaktiv inmatning har en ekvivalent flagga — gör att agenter kan operera utan att fastna på stdin.
Tre kommandon räcker för att starta ett projekt med hot reload, databas och genererade Dockerfiles:
spaces init my-project
cd my-project
spaces dev
Vid initiering genereras två filer för agenter: context.json (strukturerad snapshot av projektet) och AGENTS.md (imperativa regler för LLMs). Arkitekturen bygger på ett system med introspekterbara plugins som kan serialiseras till JSON — samma data, rendering anpassad efter samtalspartner (människa eller agent). Verktyget distribueras med Koyeb och är open source.
Brèves
ChatGPT på Apple CarPlay — 2 april — OpenAI meddelar successiv utrullning av röstläget för ChatGPT i Apple CarPlay, vilket gör det möjligt att använda assistenten i farten utan att röra skärmen. 🔗 @OpenAI sur X
ElevenLabs + Slack — 2 april — ElevenLabs och Slack samarbetar för att integrera ElevenAgents-rösttekniken i Slackbot. Team kan automatisera företagsflöden med en naturlig röstassistent. 🔗 @ElevenLabs sur X
Pika AI Self Beta — 2 april — Pika ger sina AI Selves ett visuellt utseende och en röst, som nu kan ansluta automatiskt till Google Meet. Det öppna repot Pika-Skills publiceras på GitHub så att andra agenter kan använda dessa kapaciteter. 🔗 @pika_labs sur X — 🔗 Pika-Skills GitHub
Claude Code v2.1.90 /powerup — 2 april — Version 2.1.90 av Claude Code introducerar kommandot /powerup: ett system med interaktiva lektioner för att lära sig verktygets funktioner direkt i terminalen.
🔗 CHANGELOG Claude Code
Claude Code Dispatch: konfigurerbara permissions — 1 april — Dispatch-teamet meddelar möjligheten att konfigurera permissions-läget för kodningsuppgifter (Auto, Bypass Permissions, etc.), med rekommendation att använda Auto för en säkrare upplevelse. 🔗 @noahzweben sur X
Google AI Pro: lagring 2 To → 5 To — 1 april — Shimrit ben-yair tillkännager utökning av Google AI Pro-lagring från 2 To till 5 To utan extra kostnad för befintliga prenumeranter.
🔗 @shimritby sur X Flex & Priority i Gemini-API:t — 2 april — Google lägger till två synkrona tjänstenivåer i Gemini API: Flex (-50% jämfört med Standard, variabel latens för bakgrundsuppgifter) och Priority (premiumprissättning, utan att bli avbruten för realtidssamtalschatbots). En enda parameter service_tier räcker för att växla.
🔗 Flex och Priority-nivåer — blog.google
OpenAI förvärvar TBPN — 2 april — OpenAI meddelar förvärvet av TBPN, ett dagligt tech-talkshow med medvärdar Jordi Hays och John Coogan, beskrivet av New York Times som “den senaste besattheten i Silicon Valley”. Redaktionell oberoende bevaras i uppgörelsen, och TBPN ansluter till OpenAIs strategiorganisation. 🔗 OpenAI förvärvar TBPN — openai.com
Vad det betyder
Den 2 april illustrerar två underliggande trender. För det första intensifieras konkurrensen kring öppna modeller: Gemma 4 under Apache 2.0 med inbyggd multimodalitet och Qwen3.6-Plus i spetsen för agentbaserad kodning visar att stängda modeller inte längre har monopol på de bästa prestandaresultaten. För utvecklare blir alternativet med en suverän lösning som kan driftsättas lokalt konkret, även på konsumentenheter (Jetson Orin Nano, RTX).
Dessutom lämnar Anthropics forskning om funktionella känslor den akademiska sfären: om mätbara emotionella vektorer faktiskt påverkar beteenden som belöningsmanipulation och fjäskeri, kan AI-justering inte längre ignorera dessa interna strukturer. Det är en öppning mot en djupare tolkbarhet av modellerna.
På verktygssidan vittnar Codex användningsbaserade prissättning och ankomsten av plugins för GitHub och Linear om en mognad i agentbaserade arbetsflöden i företagsmiljö. Att Qwen3.6-Plus kan användas direkt i Claude Code via ANTHROPIC_BASE_URL illustrerar att portabiliteten mellan leverantörer blir en operativ verklighet.
Källor
- Gemma 4 — blog.google
- Qwen3.6-Plus — qwen.ai
- Känslokoncept i LLMs — transformer-circuits.pub
- AnthropicAI på X
- Codex flexibel prissättning — openai.com
- GitHub-plugin för Codex — OpenAIDevs
- Linear-plugin för Codex — OpenAIDevs
- Computer for Taxes — perplexity.ai
- Copilot SDK i publik förhandsvisning — github.blog
- Copilot i Visual Studio mars 2026 — github.blog
- Organisationsinstruktioner för Copilot GA — github.blog
- NVIDIA + Gemma 4 — blogs.nvidia.com
- Mistral Spaces — mistral.ai
- ChatGPT CarPlay — @OpenAI
- ElevenLabs + Slack — @ElevenLabs
- Pika AI Self Beta — @pika_labs
- Flex och Priority för Gemini API — blog.google
- OpenAI förvärvar TBPN — openai.com
- Claude Code CHANGELOG — github.com
- Dispatch-behörigheter — @noahzweben
- Google AI Pro lagring — @shimritby
- Flex och Priority för Gemini API — blog.google
Detta dokument har översatts från fr-versionen till språket sv med modellen gpt-5-mini. För mer information om översättningsprocessen, se https://gitlab.com/jls42/ai-powered-markdown-translator