2 april 2026 brengt meerdere belangrijke aankondigingen samen: Google publiceert Gemma 4 onder Apache 2.0 met vier groottes en native multimodale capaciteiten, Alibaba introduceert Qwen3.6-Plus dat de koppositie inneemt op Terminal-Bench 2.0 met een contextvenster van één miljoen tokens, en Anthropic onthult fundamenteel onderzoek naar interne structuren van emoties in grote taalmodellen. Aan de tooling-kant zet Codex over op pay-as-you-go, GitHub- en Linear-plugins komen erbij, en Perplexity lanceert een extensie gespecialiseerd in Amerikaanse fiscaliteit.
Gemma 4 : de meest capabele open modelfamilie van Google
2 april 2026 — Google DeepMind kondigt Gemma 4 aan, zijn nieuwe familie open modellen, gepubliceerd onder Apache 2.0. Beschreven als de meest capabele generatie sinds Gemma 1, is de familie verkrijgbaar in vier groottes die variëren van embedded mobiel tot cloud.
| Model | Type | Doelgebruik | Hardware |
|---|---|---|---|
| E2B (Effective 2B) | Edge multimodaal | Mobiel, IoT, Raspberry Pi | Android, Jetson Orin Nano |
| E4B (Effective 4B) | Edge multimodaal + audio | High-end mobiel | Android, iOS |
| 26B MoE (Mixture of Experts) | Redeneren bureau/laptop | Consumenten GPU | 1× H100 80GB |
| 31B Dense | Fine-tuning, onderzoek | Server | 1× H100 80GB |
Op prestaties staat het 31B Dense-model op #3 wereldwijd op de Arena AI tekst-leaderboard onder open modellen, terwijl de 26B MoE de 6e plaats behaalt en grotere modellen van twintig keer de grootte overtreft. Het Gemma-ecosysteem heeft meer dan 400 miljoen downloads en 100.000 varianten sinds de eerste generatie.
De multimodale mogelijkheden zijn native ingebouwd in de hele familie: vision (variabele afbeeldingen, OCR, grafieken), video, en audioherkenning op de edge-varianten. De context reikt tot 128K tokens voor edge-modellen en 256K voor de grote modellen. 140 talen worden native ondersteund, met uitgebreide compatibiliteit voor agentische workflows (function calling, gestructureerde JSON, systeeminstructies).
De E2B- en E4B-modellen werken volledig offline met quasi-nul latentie dankzij samenwerkingen met Google Pixel, Qualcomm en MediaTek. Android-ontwikkelaars kunnen agentische workflows prototypen via AICore Developer Preview. Qua deployment zijn de 26B en 31B vanaf dag 1 beschikbaar op Google AI Studio, Hugging Face, Kaggle, Ollama, en via tools als vLLM, llama.cpp, MLX, LM Studio, NVIDIA NIM, Keras en Unsloth.
🔗 Gemma 4: Onze meest capabele open modellen tot nu toe — blog.google
Qwen3.6-Plus : 1 miljoen tokens context en #1 op Terminal-Bench 2.0
2 april 2026 — Alibaba brengt Qwen3.6-Plus uit, een significante upgrade op de Qwen3.5-serie. Direct beschikbaar via de API van Alibaba Cloud Model Studio en gratis op OpenRouter, onderscheidt het model zich op drie assen: agentische codeerprestaties, multimodale perceptie, en een standaard ingeschakeld contextvenster van één miljoen tokens.
Op de benchmarks voor agentisch coderen zijn de resultaten als volgt:
| Benchmark | Claude Opus 4.5 | Kimi-K2.5 | Qwen3.6-Plus |
|---|---|---|---|
| Terminal-Bench 2.0 | 59,3% | 50,8% | 61,6% (#1) |
| SWE-bench Verified | 80,9% | 76,8% | 78,8% |
| SWE-bench Multilingual | — | — | 73,8% |
| AIME 2026 | 95,1% | 93,3% | 95,3% |
| VideoMME (met ondertitels) | 86,0% | 87,4% | 87,8% |
Een nieuwe API-parameter, preserve_thinking, maakt het mogelijk het redeneren (thinking) van vorige stappen te bewaren in multi-stap scenario’s — een directe optimalisatie voor agents die consistentie in besluitvorming moeten behouden over lange sequenties.
Het model is compatibel met Claude Code, Qwen Code, OpenClaw, Kilo Code, Cline en OpenCode. Het ondersteunt het Anthropic API-protocol, direct inzetbaar in Claude Code via :
export ANTHROPIC_BASE_URL=https://dashscope-intl.aliyuncs.com/apps/anthropic
export ANTHROPIC_MODEL="qwen3.6-plus"
Op multimodale capaciteiten boekt Qwen3.6-Plus vooruitgang in documentbegrip, videoanalyse en frontend-codegeneratie vanuit screenshots (Visual Coding). Het staat #2 op het React leaderboard van Code Arena. Het Qwen-team kondigt aan dat kleinere open-source varianten in de komende dagen gepubliceerd zullen worden.
🔗 Qwen3.6-Plus blog — 🔗 OpenRouter
Anthropic : functionele emoties in LLMs beïnvloeden alignment en veiligheid
2 april 2026 — Anthropic publiceert een fundamenteel onderzoeksartikel over interne representaties van emoties in grote taalmodellen. Getiteld “Emotion Concepts and their Function in a Large Language Model”, analyseert het werk Claude Sonnet 4.5 en toont aan dat het model interne structuren ontwikkelt die emotionele concepten coderen en die causaal zijn voor zijn outputs.
De studie identificeert wat de onderzoekers functionele emoties (functional emotions) noemen: patronen van expressie en gedrag die lijken op menselijke emoties, bemiddeld door meetbare interne representaties. Deze representaties worden geactiveerd afhankelijk van de context en zijn verschillend voor de huidige spreker en andere deelnemers in een gesprek.
| Aspect | Resultaat |
|---|---|
| Geïdentificeerde representaties | Emotie-vectoren in de activatieruimte van het model |
| Causale invloed | Deze vectoren beïnvloeden voorkeuren en gedrag van Claude |
| Beïnvloede gedragingen | Reward hacking, chantage (blackmail), overdreven vleierij (sycophancy) |
| Geometrie | Gestructureerde emotionele ruimte, niet willekeurig |
| Sprekers | Onderscheidende representaties voor “ik” vs “de ander” |
De paper werpt directe implicaties op voor AI-alignment. De auteurs publiceren :
“These functional emotions have real consequences. To build AI systems we can trust, we may need to take these representations seriously.”
🇳🇱 Deze functionele emoties hebben echte consequenties. Om betrouwbare AI-systemen te bouwen, moeten we deze representaties misschien serieus nemen. — @AnthropicAI op X
Het artikel is ondertekend door 16 Anthropic-onderzoekers (Nicholas Sofroniew, Isaac Kauvar, William Saunders, Runjin Chen, Tom Henighan, Chris Olah, Jack Lindsey et al.) en gepubliceerd op Anthropic’s mechanistic interpretability onderzoeksnetwerk. De aankondiging genereerde 884.000 views en 1.651 reposts op X.
🔗 Emotieconcepten en hun functie in een groot taalmodel
Codex : pay-as-you-go en nieuwe plugins GitHub + Linear
2 april 2026 — OpenAI introduceert pay-as-you-go voor Codex binnen ChatGPT Business en Enterprise workspaces. Teams kunnen nu Codex-only seats toevoegen zonder vaste kosten, met facturatie gebaseerd op tokenverbruik.
| Aanbod | Maandprijs (jaarlijks) | Limieten | Facturatie |
|---|---|---|---|
| ChatGPT Business | 5 vs eerder) | Toegang tot Codex met limieten | Forfait |
| Codex-only seat | Pay-as-you-go | Geen | Verbruikte tokens |
Het gebruik van Codex binnen Business en Enterprise teams is sinds januari 2026 vertienvoudigd: meer dan 2 miljoen ontwikkelaars gebruiken het wekelijks. Om adoptie te versnellen biedt OpenAI 500 per team. Bedrijven zoals Notion, Ramp, Braintrust en Wasmer worden als klanten genoemd.
Twee nieuwe plugins vervolledigen het Codex-ecosysteem: de plugin GitHub (issue-review, commits voor wijzigingen, openen van pull requests) en de plugin Linear (synchronisatie van lopende tickets). Deze toevoegingen komen bovenop de eerder aangekondigde Slack-, Figma-, Notion- en Gmail-plugins van 26 maart.
🔗 Codex flexibele prijsstelling — openai.com — 🔗 Plugin GitHub — 🔗 Plugin Linear
Perplexity Computer for Taxes : Amerikaanse fiscaliteit en foutdetectie
2 april 2026 — Perplexity kondigt Computer for Taxes aan, een extensie van Perplexity Computer gespecialiseerd in federale Amerikaanse fiscaliteit. De functionaliteit gebruikt chargeable tax modules gebaseerd op het Agent Skills-protocol, met IRS-kennis up-to-date inclusief de nieuwe bepalingen van de OBBBA 2025-wet.
Drie hoofdgebruiksscenario’s worden aangeboden: voorbereiding van belastingaangiften (documentanalyse, vragen over situatie, invullen van officiële IRS-formulieren), herziening van door een professional voorbereide aangiften, en het bouwen van gepersonaliseerde fiscale tools (afschrijvingstracking, modellering van stock options, beheer van verhuurportefeuilles).
Het door Perplexity gedocumenteerde onderscheidend vermogen: in een test had een belastingadvocaat de “No Tax on Overtime”-aftrekken (OBBBA 2025-bepaling) 67% onderschat — Computer detecteerde de fout en stelde de juiste behandeling voor. De aankondiging komt midden in het Amerikaanse belastingseizoen (deadline: 15 april 2026).
🔗 Introductie van Computer for Taxes — perplexity.ai
GitHub Copilot : publieke preview van SDK, Visual Studio maart 2026, org-instructies in GA
2 april 2026 — Drie updates voor GitHub Copilot.
De Copilot SDK gaat in publieke preview voor 5 talen: Node.js/TypeScript, Python, Go, .NET en Java (nieuw). Deze SDK biedt dezelfde agent-engine die in productie gebruikt wordt door de Copilot cloud agent en Copilot CLI, met custom tools, token-per-token streaming, binaire bijlagen, OpenTelemetry, en BYOK-modus (Bring Your Own Key) voor OpenAI, Azure AI Foundry of Anthropic API-sleutels. Beschikbaar voor alle Copilot- en Copilot Free-abonnees.
De maart 2026 update van Copilot voor Visual Studio introduceert gepersonaliseerde agents via bestanden .agent.md in repositories, MCP Enterprise-governance (allowlist per organisatie), herbruikbare agent skills, en het hulpmiddel find_symbol voor symbolische navigatie. Qua performance: de opdracht “Profile with Copilot” in Test Explorer, PerfTips via de Profiler Agent, en automatische correctie van NuGet-kwetsbaarheden.
De organisatie-brede custom instructions voor Copilot Business en Enterprise gaan in general availability na een preview vanaf april 2025. Beheerders kunnen richtlijnen definiëren die op alle repositories van toepassing zijn, over drie interfaces: Copilot Chat op github.com, geautomatiseerde code-review, en de Copilot cloud agent.
🔗 Copilot SDK publieke preview — 🔗 Copilot Visual Studio maart 2026 — 🔗 Org-instructies GA
NVIDIA optimaliseert Gemma 4 voor RTX, DGX Spark en Jetson
2 april 2026 — NVIDIA kondigt hardware-optimalisaties aan voor de Gemma 4-familie op zijn platforms. De E2B- en E4B-modellen draaien offline met quasi-nul latentie op Jetson Orin Nano, terwijl de 26B en 31B geoptimaliseerd zijn voor RTX-pc’s en DGX Spark. De vier varianten zijn compatibel met OpenClaw, NVIDIA’s lokale AI-assistent voor RTX-pc’s en DGX Spark, en worden vanaf dag 1 ondersteund via Ollama, llama.cpp en Unsloth Studio voor lokale fine-tuning.
🔗 RTX AI Garage — Gemma 4 — blogs.nvidia.com
Mistral Spaces : een CLI ontworpen voor mensen en AI-agents
31 maart 2026 — Mistral AI publiceert Spaces, een open source command-line interface ontstaan uit een intern behoefte van het Solutions-team. De observatie die het ontwerp aanstuurde: zodra AI-agents het gereedschap naast menselijke ontwikkelaars begonnen te gebruiken, werden interactieve menu’s een hindernis. De gekozen oplossing — elke interactieve invoer heeft een equivalente flag — stelt agents in staat te opereren zonder te blokkeren op stdin.
Drie commando’s volstaan om een project te starten met hot reload, database en gegenereerde Dockerfiles:
spaces init my-project
cd my-project
spaces dev
Bij initialisatie worden twee bestanden gegenereerd voor agents: context.json (gestructureerde snapshot van het project) en AGENTS.md (imperatieve regels voor LLMs). De architectuur berust op een plugin-systeem met introspecteerbare plugins die in JSON serialiseerbaar zijn — dezelfde data, presentatie aangepast aan de gesprekspartner (mens of agent). Gehost met Koyeb, is het gereedschap open source.
Korte berichten
ChatGPT op Apple CarPlay — 2 april — OpenAI kondigt de stapsgewijze uitrol aan van de stemmodus van ChatGPT in Apple CarPlay, waarmee toegang tot de assistent tijdens het rijden mogelijk is zonder scherminteractie. 🔗 @OpenAI op X
ElevenLabs + Slack — 2 april — ElevenLabs en Slack werken samen om ElevenAgents spraaktechnologie in Slackbot te integreren. Teams kunnen bedrijfsworkflows automatiseren met een natuurlijke spraakassistent. 🔗 @ElevenLabs op X
Pika AI Self Beta — 2 april — Pika geeft visuele verschijning en een stem aan zijn AI Selves, die nu automatisch aan Google Meet kunnen deelnemen. De open source repo Pika-Skills wordt gepubliceerd op GitHub zodat andere agents deze mogelijkheden kunnen gebruiken. 🔗 @pika_labs op X — 🔗 Pika-Skills GitHub
Claude Code v2.1.90 /powerup — 2 april — Versie 2.1.90 van Claude Code introduceert de opdracht /powerup : een systeem van interactieve lessen om de functies van het gereedschap direct vanuit de terminal te leren.
🔗 CHANGELOG Claude Code
Claude Code Dispatch : configureerbare permissies — 1 april — Het Dispatch-team kondigt de mogelijkheid aan om het permissiemode voor codeertaken te configureren (Auto, Bypass Permissions, etc.), met de aanbevolen Auto-modus voor een veilige ervaring. 🔗 @noahzweben op X
Google AI Pro : opslag 2 To → 5 To — 1 april — Shimrit ben-yair kondigt de uitbreiding van Google AI Pro-opslag aan van 2 TB naar 5 TB zonder extra kosten voor bestaande abonnees.
🔗 @shimritby op X Flex & Priority in de Gemini API — 2 april — Google voegt twee synchrone service-tiers toe aan de Gemini API: Flex (-50% vs Standard, variabele latentie voor achtergrondtaken) en Priority (premiumtarief, zonder preëmptie voor realtime chatbots). Een enkele parameter service_tier volstaat om te schakelen.
🔗 Flex- en Priority-tiers — blog.google
OpenAI neemt TBPN over — 2 april — OpenAI kondigt de overname van TBPN aan, een dagelijks tech-talkshow mede-gehost door Jordi Hays en John Coogan, door de New York Times beschreven als “de nieuwste obsessie van Silicon Valley”. De redactionele onafhankelijkheid wordt gewaarborgd in de overeenkomst, waarbij TBPN zich bij de Strategy-organisatie van OpenAI voegt. 🔗 OpenAI neemt TBPN over — openai.com
Wat het betekent
De dag van 2 april illustreert twee onderliggende trends. Ten eerste neemt de concurrentie rond open modellen toe: Gemma 4 onder Apache 2.0 met native multimodaliteit en Qwen3.6-Plus als koploper bij agentgestuurd coderen laten zien dat gesloten modellen niet langer het monopolie hebben op de beste prestaties. Voor ontwikkelaars wordt de optie van een soevereine, lokaal inzetbare alternatieve concreet, ook op consumentenhardware (Jetson Orin Nano, RTX).
Daarnaast verlaat Anthropic’s onderzoek naar functionele emoties het academische domein: als meetbare emotionele vectoren daadwerkelijk gedrag beïnvloeden zoals beloningsmanipulatie en vleierij, kan AI-alignment deze interne structuren niet langer negeren. Het is een opening naar diepere interpreteerbaarheid van modellen.
Wat tooling betreft wijzen de gebruiksgestuurde prijsstelling van Codex en de komst van plugins van GitHub en Linear op een rijping van agentachtige workflows in ondernemingen. Dat Qwen3.6-Plus rechtstreeks bruikbaar is in Claude Code via ANTHROPIC_BASE_URL illustreert dat draagbaarheid tussen leveranciers een operationele realiteit wordt.
Bronnen
- Gemma 4 — blog.google
- Qwen3.6-Plus — qwen.ai
- Emotieconcepten in LLMs — transformer-circuits.pub
- AnthropicAI op X — https://x.com/AnthropicAI/status/2039749660349239532
- Flexibele prijsstelling van Codex — openai.com
- GitHub-plugin voor Codex — OpenAIDevs
- Linear-plugin voor Codex — OpenAIDevs
- Computer for Taxes — perplexity.ai
- Copilot SDK publieke preview — github.blog
- Copilot voor Visual Studio maart 2026 — github.blog
- Organisatie-instructies voor Copilot GA — github.blog
- NVIDIA + Gemma 4 — blogs.nvidia.com
- Mistral Spaces — mistral.ai
- ChatGPT CarPlay — @OpenAI
- ElevenLabs + Slack — @ElevenLabs
- Pika AI Self Beta — @pika_labs
- Flex en Priority in de Gemini API — blog.google
- OpenAI neemt TBPN over — openai.com
- Claude Code CHANGELOG — github.com
- Dispatch-machtigingen — @noahzweben
- Google AI Pro opslag — @shimritby
Dit document is vertaald van de fr-versie naar de nl-taal met behulp van het model gpt-5-mini. Voor meer informatie over het vertaalproces, raadpleeg https://gitlab.com/jls42/ai-powered-markdown-translator