Zoeken

Anthropic + Amazon 5 GW $5B, GitHub Copilot herstructureert zijn plannen, Kimi K2.6 SOTA open-source, Qwen3.6-Max-Preview, Codex Chronicle

Anthropic + Amazon 5 GW $5B, GitHub Copilot herstructureert zijn plannen, Kimi K2.6 SOTA open-source, Qwen3.6-Max-Preview, Codex Chronicle

Op 20 april 2026 volgen meerdere belangrijke aankondigingen elkaar op: Anthropic en Amazon breiden hun partnerschap uit rond 5 GW rekenkracht en een investering van $5B, GitHub pauzeert nieuwe inschrijvingen voor individuele Copilot-plannen terwijl de gebruikslimieten worden aangescherpt, en twee nieuwe modellen tillen de coding-benchmarks omhoog — Kimi K2.6 in open-source en Qwen3.6-Max-Preview als proprietary model. OpenAI lanceert daarnaast Codex Chronicle, een contextueel geheugen gebaseerd op schermafbeeldingen.


Anthropic en Amazon — 5 GW compute, $5B investering

20 april — Anthropic en Amazon hebben een nieuwe infrastructuurdeal ondertekend die tot 5 gigawatt (GW) rekenkracht veiligstelt voor de training en uitrol van Claude. Een aanzienlijke capaciteit van Trainium2 komt al in het tweede kwartaal van 2026 beschikbaar, met tegen eind 2026 naar verwachting bijna 1 GW aan Trainium2 en Trainium3 samen.

De overeenkomst bestaat uit drie onderdelen:

OnderdeelDetail
InfrastructuurVerplichting van meer dan 100 miljard USD over 10 jaar richting AWS, inclusief Graviton en Trainium2 tot en met Trainium4
Claude Platform op AWSDe volledige Claude Platform direct geïntegreerd in AWS — hetzelfde account, dezelfde facturatie, zonder aparte contracten
InvesteringAmazon investeert vandaag $5 miljard USD in Anthropic, met tot $20 miljard USD extra in de toekomst

Anthropic onthult dat de jaarlijkse omzet nu 30 miljard USD overstijgt, tegenover ongeveer 9 miljard eind 2025. Deze snelle groei heeft de bestaande infrastructuur onder druk gezet, wat de betrouwbaarheid voor gratis, Pro-, Max- en Team-gebruikers tijdens piekuren beïnvloedde.

Meer dan 100.000 klanten draaien Claude al op Amazon Bedrock, en Anthropic gebruikt meer dan een miljoen Trainium2-chips. De volledige Claude Platform is nu rechtstreeks toegankelijk via het AWS-account zonder aparte contracten nodig te hebben — een concrete verandering voor ontwikkelaars en bedrijven die al op AWS zitten.

Claude blijft bovendien het enige geavanceerde AI-model dat beschikbaar is op de drie grootste wereldwijde cloudplatformen: AWS (Bedrock), Google Cloud (Vertex AI) en Microsoft Azure (Foundry).

“Our users tell us Claude is increasingly essential to how they work, and we need to build the infrastructure to keep pace with rapidly growing demand.”

🇳🇱 « Onze gebruikers vertellen ons dat Claude steeds essentiëler wordt voor hun manier van werken, en we moeten de infrastructuur bouwen om gelijke tred te houden met een snel groeiende vraag. »Dario Amodei, via @AnthropicAI op X

🔗 Officiële aankondiging Anthropic


GitHub Copilot — Opschorting van Pro/Pro+-inschrijvingen en aanscherping van de limieten

20 april — GitHub publiceert aanzienlijke wijzigingen aan de individuele Copilot-plannen. Nieuwe inschrijvingen voor de plannen Pro, Pro+ en Student worden onmiddellijk opgeschort. Het plan Copilot Free blijft wel gewoon beschikbaar.

De wijzigingen in detail:

WijzigingDetail
Pauze op inschrijvingenPro, Pro+, Student — gesloten voor nieuwe gebruikers. Copilot Free blijft open
GebruikslimietenPro+ biedt 5× de limieten van Pro. Waarschuwingen in VS Code en Copilot CLI bij nadering van de limiet
Opus-modellenOpus verwijderd uit Copilot Pro. Opus 4.7 blijft alleen beschikbaar op Pro+. Opus 4.5 en 4.6 zullen later ook uit Pro+ worden verwijderd
TerugbetalingMogelijkheid om te annuleren en voor april terugbetaald te worden door contact op te nemen met support tussen 20 april en 20 mei 2026

Voor bestaande abonnees blijven de huidige plannen actief. De concrete impact: Pro-gebruikers die toegang hadden tot de Opus-modellen verliezen die toegang, terwijl Pro+ de facto de tussencategorie wordt met 5× meer quota. De terugbetalingsperiode tot 20 mei geeft een maand om te beslissen.

🔗 GitHub Changelog — Wijzigingen in individuele plannen


Kimi K2.6 — SOTA open-source in coding en agents

20 april — Moonshot AI lanceert Kimi K2.6, een nieuw open-source model dat meerdere records vestigt (state of the art) op de coding- en agents-benchmarks. De aankondiging genereerde binnen enkele uren meer dan 1,5 miljoen weergaven.

Open-source benchmarks:

BenchmarkScore K2.6
SWE-Bench Pro58,6
SWE-bench Multilingual76,7
HLE with tools54,0
BrowseComp83,2
Toolathlon50,0
Charxiv w/ python86,7
Math Vision w/ python93,2

De verbeteringen ten opzichte van K2.5 zijn substantieel. Op coding over lange horizon (long-horizon coding) voert K2.6 tot 4.000 tool calls in één sessie uit en kan het meer dan 12 uur onafgebroken draaien, met generalisatie over meerdere talen (Rust, Go, Python) en meerdere taken (frontend, DevOps, prestatie-optimalisatie).

Ook de multi-agentarchitectuur is verder ontwikkeld: 300 parallelle subagents × 4.000 stappen per uitvoering, tegenover 100 subagents × 1.500 stappen voor K2.5. K2.6 ondersteunt standaard geavanceerde frontendinterfaces — video’s in hero-secties, WebGL-shaders, GSAP + Framer Motion-animaties, 3D-weergaven met Three.js.

De gewichten zijn beschikbaar als open-source op HuggingFace. De API is toegankelijk op platform.moonshot.ai, en het model draait in chatmodus en agentmodus op kimi.com.

🔗 Aankondiging Kimi K2.6 op X — 🔗 Kimi K2.6-blog — 🔗 Gewichten op HuggingFace


Qwen3.6-Max-Preview — Voorproefje van het volgende vlaggenschipmodel

20 april — Alibaba Qwen lanceert Qwen3.6-Max-Preview, een voorproefje van zijn volgende proprietary vlaggenschipmodel, de opvolger van Qwen3.6-Plus.

Verbeteringen op de benchmarks ten opzichte van Qwen3.6-Plus:

BenchmarkVerbetering
SkillsBench+9,9
SciCode+6,3
NL2Repo+5,0
Terminal-Bench 2.0+3,8
QwenChineseBench+5,3
SuperGPQA+2,3
ToolcallFormatIFBench+2,8

Het model staat op kop in 6 belangrijke coding-benchmarks: SWE-bench Pro, Terminal-Bench 2.0, SkillsBench, QwenClawBench, QwenWebBench en SciCode. Het is vanaf vandaag beschikbaar in vroege toegang via chat.qwen.ai en via de Alibaba Cloud Model Studio API onder de identificatie qwen3.6-max-preview. Het is compatibel met OpenAI- en Anthropic-specificaties, en ondersteunt de preserve_thinking-modus voor agentische taken.

Het gaat om een versie die nog actief in ontwikkeling is — verdere iteraties worden aangekondigd vóór de definitieve release.

🔗 Qwen-aankondiging op X — 🔗 Qwen3.6-Max-Preview-blog


Codex Chronicle (Research Preview) — Contextueel geheugen via schermafbeeldingen

20 april — OpenAI lanceert Codex Chronicle in Research Preview, een nieuwe functie voor contextueel geheugen voor Codex. Chronicle laat agents op de achtergrond draaien om herinneringen op te bouwen uit recente schermafbeeldingen, zodat Codex een werksessie kan hervatten zonder dat de gebruiker de context handmatig hoeft bij te werken.

Werking: de agents maken periodiek schermafbeeldingen, halen daaruit de werkcontext en slaan herinneringen lokaal op het apparaat op. De gebruiker kan deze herinneringen bekijken en aanpassen. OpenAI waarschuwt dat andere applicaties mogelijk toegang kunnen krijgen tot de screenshotbestanden.

Beperkte beschikbaarheid bij lancering: alleen voor Pro-gebruikers op macOS, uitgesloten van EU-landen, het VK en Zwitserland tijdens de leerfase.

🔗 Aankondiging Codex Chronicle op X


Grok — Cohere video-extensies

20 april — Grok Imagine kondigt verbeterde video-extensies aan (Smarter Video Extensions). Grok ziet nu de originele prompt en de bronclip om extensies te genereren die consistent zijn in inhoud en audio. De audio-continuïteit blijft behouden gedurende de volledige duur van de extensie. Beschikbaar in de Grok-app en op het web.

🔗 Aankondiging Grok op X


NotebookLM — Aangepaste covers voor notebooks

16 april — NotebookLM laat nu toe om een aangepaste coverillustratie en een beschrijving toe te voegen aan eender welk notebook. De functie is bedoeld om de weergave in rastervorm te personaliseren vóór het delen van een notebook. Aanbevolen formaat: 16:9-afbeelding.

🔗 Aankondiging NotebookLM op X


Kort samengevat

TeenAegis AI Danger Index (18 apr.) — In zijn eerste AI Danger Index kende TeenAegis aan OpenAI de laagste risicoscore toe van de beoordeelde aanbieders. De index evalueert de bescherming van jonge gebruikers: leeftijdsadequate controles, toezicht, meldingen en beschermingsmaatregelen. 🔗 Tweet OpenAI Newsroom

OpenAI Academy — 3M+ gebruikers (19 apr.) — Het AI-trainingsplatform van OpenAI overschrijdt de grens van 3 miljoen gebruikers, met deze week fysieke evenementen van Warschau tot Abilene (Texas), inclusief Cal State Bakersfield. 🔗 Tweet OpenAI Newsroom


Wat dit betekent

De Anthropic-Amazon-deal is op meerdere vlakken structureel: ze formaliseert een wederzijdse afhankelijkheid (Anthropic heeft compute nodig, Amazon heeft Claude nodig om Bedrock concurrerend te maken), en de uniforme AWS-facturatie haalt een echte frictie weg voor teams die al in het Amazon-ecosysteem zitten. Het run-rate-cijfer van $30B annualized, in enkele maanden meer dan verdrievoudigd, verklaart waarom de infrastructuur onder druk staat en waarom deze deal urgent was.

Aan de modelkant illustreert de dag van 20 april een dynamiek van snelle compressie van de verschillen: Kimi K2.6 in open-source behaalt scores die vergelijkbaar zijn met proprietary modellen die nog maar enkele weken geleden zijn uitgebracht, en Qwen3.6-Max-Preview plaatst Alibaba bovenaan op coding-benchmarks nog vóór de definitieve versie. De herstructurering van de Copilot-plannen bij GitHub signaleert een spanning tussen brede adoptie (Free) en duurzame monetisatie (Pro+), met een gebruikerservaring die per tier uiteenvalt.


Bronnen

Dit document is vertaald van de fr-versie naar de taal nl met behulp van het model gpt-5.4-mini. Voor meer informatie over het vertaalproces, raadpleeg https://gitlab.com/jls42/ai-powered-markdown-translator