Zoeken

Gemma 4 open source, Qwen3.6-Plus bovenaan bij agentische codeerbenchmarks, Anthropic onderzoekt functionele emoties in LLMs

Gemma 4 open source, Qwen3.6-Plus bovenaan bij agentische codeerbenchmarks, Anthropic onderzoekt functionele emoties in LLMs

2 april 2026 brengt meerdere belangrijke aankondigingen samen: Google publiceert Gemma 4 onder Apache 2.0 met vier groottes en native multimodale capaciteiten, Alibaba introduceert Qwen3.6-Plus dat de koppositie inneemt op Terminal-Bench 2.0 met een contextvenster van één miljoen tokens, en Anthropic onthult fundamenteel onderzoek naar interne structuren van emoties in grote taalmodellen. Aan de tooling-kant zet Codex over op pay-as-you-go, GitHub- en Linear-plugins komen erbij, en Perplexity lanceert een extensie gespecialiseerd in Amerikaanse fiscaliteit.


Gemma 4 : de meest capabele open modelfamilie van Google

2 april 2026 — Google DeepMind kondigt Gemma 4 aan, zijn nieuwe familie open modellen, gepubliceerd onder Apache 2.0. Beschreven als de meest capabele generatie sinds Gemma 1, is de familie verkrijgbaar in vier groottes die variëren van embedded mobiel tot cloud.

ModelTypeDoelgebruikHardware
E2B (Effective 2B)Edge multimodaalMobiel, IoT, Raspberry PiAndroid, Jetson Orin Nano
E4B (Effective 4B)Edge multimodaal + audioHigh-end mobielAndroid, iOS
26B MoE (Mixture of Experts)Redeneren bureau/laptopConsumenten GPU1× H100 80GB
31B DenseFine-tuning, onderzoekServer1× H100 80GB

Op prestaties staat het 31B Dense-model op #3 wereldwijd op de Arena AI tekst-leaderboard onder open modellen, terwijl de 26B MoE de 6e plaats behaalt en grotere modellen van twintig keer de grootte overtreft. Het Gemma-ecosysteem heeft meer dan 400 miljoen downloads en 100.000 varianten sinds de eerste generatie.

De multimodale mogelijkheden zijn native ingebouwd in de hele familie: vision (variabele afbeeldingen, OCR, grafieken), video, en audioherkenning op de edge-varianten. De context reikt tot 128K tokens voor edge-modellen en 256K voor de grote modellen. 140 talen worden native ondersteund, met uitgebreide compatibiliteit voor agentische workflows (function calling, gestructureerde JSON, systeeminstructies).

De E2B- en E4B-modellen werken volledig offline met quasi-nul latentie dankzij samenwerkingen met Google Pixel, Qualcomm en MediaTek. Android-ontwikkelaars kunnen agentische workflows prototypen via AICore Developer Preview. Qua deployment zijn de 26B en 31B vanaf dag 1 beschikbaar op Google AI Studio, Hugging Face, Kaggle, Ollama, en via tools als vLLM, llama.cpp, MLX, LM Studio, NVIDIA NIM, Keras en Unsloth.

🔗 Gemma 4: Onze meest capabele open modellen tot nu toe — blog.google


Qwen3.6-Plus : 1 miljoen tokens context en #1 op Terminal-Bench 2.0

2 april 2026 — Alibaba brengt Qwen3.6-Plus uit, een significante upgrade op de Qwen3.5-serie. Direct beschikbaar via de API van Alibaba Cloud Model Studio en gratis op OpenRouter, onderscheidt het model zich op drie assen: agentische codeerprestaties, multimodale perceptie, en een standaard ingeschakeld contextvenster van één miljoen tokens.

Op de benchmarks voor agentisch coderen zijn de resultaten als volgt:

BenchmarkClaude Opus 4.5Kimi-K2.5Qwen3.6-Plus
Terminal-Bench 2.059,3%50,8%61,6% (#1)
SWE-bench Verified80,9%76,8%78,8%
SWE-bench Multilingual73,8%
AIME 202695,1%93,3%95,3%
VideoMME (met ondertitels)86,0%87,4%87,8%

Een nieuwe API-parameter, preserve_thinking, maakt het mogelijk het redeneren (thinking) van vorige stappen te bewaren in multi-stap scenario’s — een directe optimalisatie voor agents die consistentie in besluitvorming moeten behouden over lange sequenties.

Het model is compatibel met Claude Code, Qwen Code, OpenClaw, Kilo Code, Cline en OpenCode. Het ondersteunt het Anthropic API-protocol, direct inzetbaar in Claude Code via :

export ANTHROPIC_BASE_URL=https://dashscope-intl.aliyuncs.com/apps/anthropic
export ANTHROPIC_MODEL="qwen3.6-plus"

Op multimodale capaciteiten boekt Qwen3.6-Plus vooruitgang in documentbegrip, videoanalyse en frontend-codegeneratie vanuit screenshots (Visual Coding). Het staat #2 op het React leaderboard van Code Arena. Het Qwen-team kondigt aan dat kleinere open-source varianten in de komende dagen gepubliceerd zullen worden.

🔗 Qwen3.6-Plus blog — 🔗 OpenRouter


Anthropic : functionele emoties in LLMs beïnvloeden alignment en veiligheid

2 april 2026 — Anthropic publiceert een fundamenteel onderzoeksartikel over interne representaties van emoties in grote taalmodellen. Getiteld “Emotion Concepts and their Function in a Large Language Model”, analyseert het werk Claude Sonnet 4.5 en toont aan dat het model interne structuren ontwikkelt die emotionele concepten coderen en die causaal zijn voor zijn outputs.

De studie identificeert wat de onderzoekers functionele emoties (functional emotions) noemen: patronen van expressie en gedrag die lijken op menselijke emoties, bemiddeld door meetbare interne representaties. Deze representaties worden geactiveerd afhankelijk van de context en zijn verschillend voor de huidige spreker en andere deelnemers in een gesprek.

AspectResultaat
Geïdentificeerde representatiesEmotie-vectoren in de activatieruimte van het model
Causale invloedDeze vectoren beïnvloeden voorkeuren en gedrag van Claude
Beïnvloede gedragingenReward hacking, chantage (blackmail), overdreven vleierij (sycophancy)
GeometrieGestructureerde emotionele ruimte, niet willekeurig
SprekersOnderscheidende representaties voor “ik” vs “de ander”

De paper werpt directe implicaties op voor AI-alignment. De auteurs publiceren :

“These functional emotions have real consequences. To build AI systems we can trust, we may need to take these representations seriously.”

🇳🇱 Deze functionele emoties hebben echte consequenties. Om betrouwbare AI-systemen te bouwen, moeten we deze representaties misschien serieus nemen.@AnthropicAI op X

Het artikel is ondertekend door 16 Anthropic-onderzoekers (Nicholas Sofroniew, Isaac Kauvar, William Saunders, Runjin Chen, Tom Henighan, Chris Olah, Jack Lindsey et al.) en gepubliceerd op Anthropic’s mechanistic interpretability onderzoeksnetwerk. De aankondiging genereerde 884.000 views en 1.651 reposts op X.

🔗 Emotieconcepten en hun functie in een groot taalmodel


Codex : pay-as-you-go en nieuwe plugins GitHub + Linear

2 april 2026 — OpenAI introduceert pay-as-you-go voor Codex binnen ChatGPT Business en Enterprise workspaces. Teams kunnen nu Codex-only seats toevoegen zonder vaste kosten, met facturatie gebaseerd op tokenverbruik.

AanbodMaandprijs (jaarlijks)LimietenFacturatie
ChatGPT Business20/seat(20/seat (-5 vs eerder)Toegang tot Codex met limietenForfait
Codex-only seatPay-as-you-goGeenVerbruikte tokens

Het gebruik van Codex binnen Business en Enterprise teams is sinds januari 2026 vertienvoudigd: meer dan 2 miljoen ontwikkelaars gebruiken het wekelijks. Om adoptie te versnellen biedt OpenAI 100creditspernieuweCodexonlyseattot100 credits per nieuwe Codex-only seat tot 500 per team. Bedrijven zoals Notion, Ramp, Braintrust en Wasmer worden als klanten genoemd.

Twee nieuwe plugins vervolledigen het Codex-ecosysteem: de plugin GitHub (issue-review, commits voor wijzigingen, openen van pull requests) en de plugin Linear (synchronisatie van lopende tickets). Deze toevoegingen komen bovenop de eerder aangekondigde Slack-, Figma-, Notion- en Gmail-plugins van 26 maart.

🔗 Codex flexibele prijsstelling — openai.com — 🔗 Plugin GitHub — 🔗 Plugin Linear


Perplexity Computer for Taxes : Amerikaanse fiscaliteit en foutdetectie

2 april 2026 — Perplexity kondigt Computer for Taxes aan, een extensie van Perplexity Computer gespecialiseerd in federale Amerikaanse fiscaliteit. De functionaliteit gebruikt chargeable tax modules gebaseerd op het Agent Skills-protocol, met IRS-kennis up-to-date inclusief de nieuwe bepalingen van de OBBBA 2025-wet.

Drie hoofdgebruiksscenario’s worden aangeboden: voorbereiding van belastingaangiften (documentanalyse, vragen over situatie, invullen van officiële IRS-formulieren), herziening van door een professional voorbereide aangiften, en het bouwen van gepersonaliseerde fiscale tools (afschrijvingstracking, modellering van stock options, beheer van verhuurportefeuilles).

Het door Perplexity gedocumenteerde onderscheidend vermogen: in een test had een belastingadvocaat de “No Tax on Overtime”-aftrekken (OBBBA 2025-bepaling) 67% onderschat — Computer detecteerde de fout en stelde de juiste behandeling voor. De aankondiging komt midden in het Amerikaanse belastingseizoen (deadline: 15 april 2026).

🔗 Introductie van Computer for Taxes — perplexity.ai


GitHub Copilot : publieke preview van SDK, Visual Studio maart 2026, org-instructies in GA

2 april 2026 — Drie updates voor GitHub Copilot.

De Copilot SDK gaat in publieke preview voor 5 talen: Node.js/TypeScript, Python, Go, .NET en Java (nieuw). Deze SDK biedt dezelfde agent-engine die in productie gebruikt wordt door de Copilot cloud agent en Copilot CLI, met custom tools, token-per-token streaming, binaire bijlagen, OpenTelemetry, en BYOK-modus (Bring Your Own Key) voor OpenAI, Azure AI Foundry of Anthropic API-sleutels. Beschikbaar voor alle Copilot- en Copilot Free-abonnees.

De maart 2026 update van Copilot voor Visual Studio introduceert gepersonaliseerde agents via bestanden .agent.md in repositories, MCP Enterprise-governance (allowlist per organisatie), herbruikbare agent skills, en het hulpmiddel find_symbol voor symbolische navigatie. Qua performance: de opdracht “Profile with Copilot” in Test Explorer, PerfTips via de Profiler Agent, en automatische correctie van NuGet-kwetsbaarheden.

De organisatie-brede custom instructions voor Copilot Business en Enterprise gaan in general availability na een preview vanaf april 2025. Beheerders kunnen richtlijnen definiëren die op alle repositories van toepassing zijn, over drie interfaces: Copilot Chat op github.com, geautomatiseerde code-review, en de Copilot cloud agent.

🔗 Copilot SDK publieke preview — 🔗 Copilot Visual Studio maart 2026 — 🔗 Org-instructies GA


NVIDIA optimaliseert Gemma 4 voor RTX, DGX Spark en Jetson

2 april 2026 — NVIDIA kondigt hardware-optimalisaties aan voor de Gemma 4-familie op zijn platforms. De E2B- en E4B-modellen draaien offline met quasi-nul latentie op Jetson Orin Nano, terwijl de 26B en 31B geoptimaliseerd zijn voor RTX-pc’s en DGX Spark. De vier varianten zijn compatibel met OpenClaw, NVIDIA’s lokale AI-assistent voor RTX-pc’s en DGX Spark, en worden vanaf dag 1 ondersteund via Ollama, llama.cpp en Unsloth Studio voor lokale fine-tuning.

🔗 RTX AI Garage — Gemma 4 — blogs.nvidia.com


Mistral Spaces : een CLI ontworpen voor mensen en AI-agents

31 maart 2026 — Mistral AI publiceert Spaces, een open source command-line interface ontstaan uit een intern behoefte van het Solutions-team. De observatie die het ontwerp aanstuurde: zodra AI-agents het gereedschap naast menselijke ontwikkelaars begonnen te gebruiken, werden interactieve menu’s een hindernis. De gekozen oplossing — elke interactieve invoer heeft een equivalente flag — stelt agents in staat te opereren zonder te blokkeren op stdin.

Drie commando’s volstaan om een project te starten met hot reload, database en gegenereerde Dockerfiles:

spaces init my-project
cd my-project
spaces dev

Bij initialisatie worden twee bestanden gegenereerd voor agents: context.json (gestructureerde snapshot van het project) en AGENTS.md (imperatieve regels voor LLMs). De architectuur berust op een plugin-systeem met introspecteerbare plugins die in JSON serialiseerbaar zijn — dezelfde data, presentatie aangepast aan de gesprekspartner (mens of agent). Gehost met Koyeb, is het gereedschap open source.

🔗 Mistral Spaces — mistral.ai


Korte berichten

ChatGPT op Apple CarPlay2 april — OpenAI kondigt de stapsgewijze uitrol aan van de stemmodus van ChatGPT in Apple CarPlay, waarmee toegang tot de assistent tijdens het rijden mogelijk is zonder scherminteractie. 🔗 @OpenAI op X

ElevenLabs + Slack2 april — ElevenLabs en Slack werken samen om ElevenAgents spraaktechnologie in Slackbot te integreren. Teams kunnen bedrijfsworkflows automatiseren met een natuurlijke spraakassistent. 🔗 @ElevenLabs op X

Pika AI Self Beta2 april — Pika geeft visuele verschijning en een stem aan zijn AI Selves, die nu automatisch aan Google Meet kunnen deelnemen. De open source repo Pika-Skills wordt gepubliceerd op GitHub zodat andere agents deze mogelijkheden kunnen gebruiken. 🔗 @pika_labs op X — 🔗 Pika-Skills GitHub

Claude Code v2.1.90 /powerup2 april — Versie 2.1.90 van Claude Code introduceert de opdracht /powerup : een systeem van interactieve lessen om de functies van het gereedschap direct vanuit de terminal te leren. 🔗 CHANGELOG Claude Code

Claude Code Dispatch : configureerbare permissies1 april — Het Dispatch-team kondigt de mogelijkheid aan om het permissiemode voor codeertaken te configureren (Auto, Bypass Permissions, etc.), met de aanbevolen Auto-modus voor een veilige ervaring. 🔗 @noahzweben op X

Google AI Pro : opslag 2 To → 5 To1 april — Shimrit ben-yair kondigt de uitbreiding van Google AI Pro-opslag aan van 2 TB naar 5 TB zonder extra kosten voor bestaande abonnees. 🔗 @shimritby op X Flex & Priority in de Gemini API2 april — Google voegt twee synchrone service-tiers toe aan de Gemini API: Flex (-50% vs Standard, variabele latentie voor achtergrondtaken) en Priority (premiumtarief, zonder preëmptie voor realtime chatbots). Een enkele parameter service_tier volstaat om te schakelen. 🔗 Flex- en Priority-tiers — blog.google

OpenAI neemt TBPN over2 april — OpenAI kondigt de overname van TBPN aan, een dagelijks tech-talkshow mede-gehost door Jordi Hays en John Coogan, door de New York Times beschreven als “de nieuwste obsessie van Silicon Valley”. De redactionele onafhankelijkheid wordt gewaarborgd in de overeenkomst, waarbij TBPN zich bij de Strategy-organisatie van OpenAI voegt. 🔗 OpenAI neemt TBPN over — openai.com


Wat het betekent

De dag van 2 april illustreert twee onderliggende trends. Ten eerste neemt de concurrentie rond open modellen toe: Gemma 4 onder Apache 2.0 met native multimodaliteit en Qwen3.6-Plus als koploper bij agentgestuurd coderen laten zien dat gesloten modellen niet langer het monopolie hebben op de beste prestaties. Voor ontwikkelaars wordt de optie van een soevereine, lokaal inzetbare alternatieve concreet, ook op consumentenhardware (Jetson Orin Nano, RTX).

Daarnaast verlaat Anthropic’s onderzoek naar functionele emoties het academische domein: als meetbare emotionele vectoren daadwerkelijk gedrag beïnvloeden zoals beloningsmanipulatie en vleierij, kan AI-alignment deze interne structuren niet langer negeren. Het is een opening naar diepere interpreteerbaarheid van modellen.

Wat tooling betreft wijzen de gebruiksgestuurde prijsstelling van Codex en de komst van plugins van GitHub en Linear op een rijping van agentachtige workflows in ondernemingen. Dat Qwen3.6-Plus rechtstreeks bruikbaar is in Claude Code via ANTHROPIC_BASE_URL illustreert dat draagbaarheid tussen leveranciers een operationele realiteit wordt.


Bronnen

Dit document is vertaald van de fr-versie naar de nl-taal met behulp van het model gpt-5-mini. Voor meer informatie over het vertaalproces, raadpleeg https://gitlab.com/jls42/ai-powered-markdown-translator