Sök

Anthropic + Amazon 5 GW $5B, GitHub Copilot omstrukturering av sina planer, Kimi K2.6 SOTA open-source, Qwen3.6-Max-Preview, Codex Chronicle

Anthropic + Amazon 5 GW $5B, GitHub Copilot omstrukturering av sina planer, Kimi K2.6 SOTA open-source, Qwen3.6-Max-Preview, Codex Chronicle

Den 20 april 2026 samlar flera viktiga tillkännagivanden: Anthropic och Amazon utökar sitt partnerskap kring 5 GW beräkningskapacitet och en investering på $5B, GitHub pausar nya registreringar för individuella Copilot-planer samtidigt som användningsgränserna skärps, och två nya modeller höjer coding-benchmarksen — Kimi K2.6 som open-source och Qwen3.6-Max-Preview som proprietär. OpenAI lanserar dessutom Codex Chronicle, ett kontextuellt minne baserat på skärmbilder.


Anthropic och Amazon — 5 GW compute, $5B investering

20 april — Anthropic och Amazon har undertecknat ett nytt infrastrukturavtal som säkrar upp till 5 gigawatt (GW) beräkningskapacitet för träning och driftsättning av Claude. Betydande Trainium2-kapacitet kommer redan under andra kvartalet 2026, med nära 1 GW totalt av Trainium2 och Trainium3 väntat till slutet av 2026.

Avtalet är uppdelat i tre delar:

DelDetalj
InfrastrukturÅtagande på över 100 miljarder USD under 10 år till AWS, som omfattar Graviton och Trainium2 till och med Trainium4
Claude Platform på AWSDen fullständiga Claude Platform integrerad direkt i AWS — samma konto, samma fakturering, inga separata kontrakt
InvesteringAmazon investerar $5 miljarder USD i Anthropic idag, med upp till ytterligare $20 miljarder USD i framtiden

Anthropic avslöjar att dess annualiserade intäkter nu överstiger 30 miljarder USD, jämfört med omkring 9 miljarder i slutet av 2025. Den snabba tillväxten har satt press på den befintliga infrastrukturen och påverkat tillförlitligheten för gratisanvändare, Pro, Max och Team under toppbelastning.

Mer än 100 000 kunder kör redan Claude på Amazon Bedrock, och Anthropic använder mer än en miljon Trainium2-chip. Den fullständiga Claude Platform är nu direkt tillgänglig från AWS-kontot utan separata kontrakt — en konkret förändring för utvecklare och företag som redan finns på AWS.

Claude förblir dessutom den enda ledande AI-modellen som finns tillgänglig på alla tre stora globala molnplattformar: AWS (Bedrock), Google Cloud (Vertex AI) och Microsoft Azure (Foundry).

“Our users tell us Claude is increasingly essential to how they work, and we need to build the infrastructure to keep pace with rapidly growing demand.”

🇸🇪 « Våra användare säger till oss att Claude blir allt viktigare för hur de arbetar, och vi måste bygga infrastrukturen för att hänga med i en snabbt växande efterfrågan. »Dario Amodei, via @AnthropicAI på X

🔗 Officiellt Anthropic-meddelande


GitHub Copilot — Paus för Pro/Pro+-registreringar och skärpta gränser

20 april — GitHub publicerar betydande ändringar för individuella Copilot-planer. Nya registreringar för planerna Pro, Pro+ och Student pausas omedelbart. Copilot Free förblir däremot öppen.

Ändringarna i detalj:

ÄndringDetalj
Pausade registreringarPro, Pro+, Student — stängda för nya användare. Copilot Free förblir öppen
AnvändningsgränserPro+ erbjuder 5× gränserna för Pro. Varningar i VS Code och Copilot CLI när gränsen närmar sig
Opus-modellerOpus tas bort från Copilot Pro. Opus 4.7 förblir endast tillgänglig på Pro+. Opus 4.5 och 4.6 kommer också att tas bort från Pro+ senare
ÅterbetalningMöjlighet att avbryta och få återbetalning för april genom att kontakta support mellan 20 april och 20 maj 2026

För redan prenumererande användare förblir de befintliga planerna aktiva. Den konkreta effekten: Pro-användare som hade tillgång till Opus-modellerna förlorar denna åtkomst, medan Pro+ de facto blir mellannivån med 5× större kvot. Återbetalningsfönstret fram till 20 maj ger en månad att bestämma sig.

🔗 GitHub Changelog — Ändringar i individuella planer


Kimi K2.6 — SOTA open-source inom coding och agenter

20 april — Moonshot AI lanserar Kimi K2.6, en ny open-source-modell som sätter flera rekord (state of the art) på benchmarks för coding och agenter. Tillkännagivandet genererade mer än 1,5 miljoner visningar på några timmar.

Open-source-benchmarks:

BenchmarkK2.6-poäng
SWE-Bench Pro58,6
SWE-bench Multilingual76,7
HLE with tools54,0
BrowseComp83,2
Toolathlon50,0
Charxiv w/ python86,7
Math Vision w/ python93,2

Förbättringarna jämfört med K2.5 är betydande. Inom långsiktig coding (long-horizon coding) kan K2.6 kedja ihop upp till 4 000 verktygsanrop i en session och kan köra mer än 12 timmar i sträck, med generalisering över flera språk (Rust, Go, Python) och flera uppgifter (frontend, DevOps, prestandaoptimering).

Multi-agent-arkitekturen har också förbättrats: 300 parallella underagenter × 4 000 steg per körning, jämfört med 100 underagenter × 1 500 steg för K2.5. K2.6 stödjer inbyggt avancerade frontend-gränssnitt — videor i hero-sektioner, WebGL-shaders, GSAP + Framer Motion-animationer, 3D-renderingar med Three.js.

Vikterna finns tillgängliga som open-source på HuggingFace. API:t är tillgängligt på platform.moonshot.ai, och modellen körs i chattläge och agentläge på kimi.com.

🔗 Kimi K2.6-annons på X — 🔗 Kimi K2.6-blogg — 🔗 Vikter på HuggingFace


Qwen3.6-Max-Preview — Förhandsvisning av nästa flaggskeppsmodell

20 april — Alibaba Qwen lanserar Qwen3.6-Max-Preview, en förhandsvisning av sin nästa proprietära flaggskeppsmodell, efterföljaren till Qwen3.6-Plus.

Vinster på benchmarks jämfört med Qwen3.6-Plus:

BenchmarkFörbättring
SkillsBench+9,9
SciCode+6,3
NL2Repo+5,0
Terminal-Bench 2.0+3,8
QwenChineseBench+5,3
SuperGPQA+2,3
ToolcallFormatIFBench+2,8

Modellen placerar sig i topp på 6 stora coding-benchmarks: SWE-bench Pro, Terminal-Bench 2.0, SkillsBench, QwenClawBench, QwenWebBench och SciCode. Den är tillgänglig redan idag i tidig åtkomst via chat.qwen.ai och via Alibaba Cloud Model Studio API med identifieraren qwen3.6-max-preview. Den är kompatibel med OpenAI- och Anthropic-specifikationerna och stödjer läget preserve_thinking för agentiska uppgifter.

Detta är en version som fortfarande är under aktiv utveckling — ytterligare iterationer aviseras före den slutliga lanseringen.

🔗 Qwen-annons på X — 🔗 Qwen3.6-Max-Preview-blogg


Codex Chronicle (Research Preview) — Kontextminne via skärmbilder

20 april — OpenAI lanserar Codex Chronicle i Research Preview, en ny funktion för kontextuellt minne för Codex. Chronicle kör agenter i bakgrunden för att bygga minnen från nyliga skärmbilder, vilket gör att Codex kan återuppta en arbetssession utan att användaren manuellt behöver uppdatera kontexten.

Så fungerar det: agenterna fångar skärmen periodiskt, extraherar arbetskontexten och lagrar minnen lokalt på enheten. Användaren kan inspektera och ändra dessa minnen. OpenAI varnar för att andra appar potentiellt kan få tillgång till skärmfilerna.

Begränsad tillgänglighet vid lanseringen: reserverad för Pro-användare på macOS, exkluderad från EU-länder, Storbritannien och Schweiz under inlärningsfasen.

🔗 Codex Chronicle-annons på X


Grok — Smarta videoextensions

20 april — Grok Imagine tillkännager förbättrade videoextensions (Smarter Video Extensions). Grok ser nu både den ursprungliga prompten och källklippet för att generera förlängningar som är konsekventa i både innehåll och ljud. Ljudkontinuiteten bibehålls under hela förlängningen. Tillgängligt i Grok-appen och på webben.

🔗 Grok-annons på X


NotebookLM — Anpassade omslag för notebooks

16 april — NotebookLM gör det nu möjligt att lägga till en anpassad omslagsillustration och en beskrivning till vilken notebook som helst. Funktionen syftar till att personanpassa rutnätsvyn innan en notebook delas. Rekommenderat format: 16:9-bild.

🔗 NotebookLM-annons på X


Kort sagt

TeenAegis AI Danger Index (18 apr.) — I sitt första AI-farlighetsindex (AI Danger Index) gav TeenAegis OpenAI den lägsta riskpoängen bland de utvärderade leverantörerna. Indexet bedömer skyddet för unga användare: åldersanpassade kontroller, övervakning, rapportering och skyddsåtgärder. 🔗 Tweet från OpenAI Newsroom

OpenAI Academy — 3M+ användare (19 apr.) — OpenAIs AI-utbildningsplattform passerar 3 miljoner användare, med fysiska evenemang organiserade denna vecka från Warszawa till Abilene (Texas) via Cal State Bakersfield. 🔗 Tweet från OpenAI Newsroom


Vad detta betyder

Anthropic-Amazon-avtalet är strukturellt på flera sätt: det formaliserar ett ömsesidigt beroende (Anthropic behöver compute, Amazon behöver Claude för att göra Bedrock konkurrenskraftigt), och den enhetliga AWS-faktureringen tar bort en verklig friktion för team som redan finns i Amazons ekosystem. Run-rate-siffran på $30B i annualiserade intäkter, mer än tredubblad på några månader, förklarar varför infrastrukturen är under press och varför detta avtal var akut.

På modellsidan illustrerar den 20 april en dynamik med snabb minskning av gapen: Kimi K2.6 som open-source når poäng jämförbara med proprietära modeller som släppts för bara några veckor sedan, och Qwen3.6-Max-Preview placerar Alibaba i topp på coding-benchmarks redan före den slutliga versionen. Omstruktureringen av Copilot-planerna hos GitHub signalerar en spänning mellan bred adoption (Free) och hållbar monetisering (Pro+), med en användarupplevelse som fragmenteras mellan nivåerna.


Källor

Detta dokument har översatts från versionen fr till språket sv med hjälp av modellen gpt-5.4-mini. För mer information om översättningsprocessen, se https://gitlab.com/jls42/ai-powered-markdown-translator