De 25 en 26 maart brengen meerdere belangrijke aankondigingen van Anthropic: Claude integreert Figma, Canva en Amplitude als werktools rechtstreeks vanaf mobiel, en Claude Code ziet zijn opstart 2,8x sneller dankzij 60 dagen Bun-optimalisaties. GitHub Copilot wijzigt zijn beleid voor het gebruik van interactiedata met een opt-out die vóór 24 april geactiveerd moet worden. Google DeepMind lanceert Lyria 3 Pro met muziekgeneratie tot 3 minuten, en NVIDIA richtte de Nemotron Coalition op tijdens GTC 2026.
Claude: werktools op mobiel (Figma, Canva, Amplitude)
25 maart — Claude integreert nu drie werktools die rechtstreeks vanuit de mobiele app toegankelijk zijn: Figma, Canva en Amplitude. Gebruikers kunnen zo design-, creatie- en analyse-workflows vanaf hun telefoon beheren zonder de Claude-interface te verlaten.
De aankondiging op X, vergezeld van een demonstratievideo, genereerde 1,9 miljoen weergaven in enkele uren — een teken dat de integratie van professionele tools in de mobiele interface sterk aansluit bij de vraag.
Claude Code: opstart 2,8x sneller, Agent SDK 5,1x
24 maart — Na 60 dagen optimalisaties geleid door Jarred Sumner (maker van Bun, overgenomen door Anthropic in december 2025) start Claude Code nu 2,8x sneller, en de Agent SDK toont 5,1x betere prestaties.
Deze winst is het resultaat van laag-niveau werk aan de Bun-runtime in Claude Code — optimalisaties van de opstart, geheugengebruik en de initiële reactietijd. Gerepost door Brian Cherny (@bcherny, Claude Code-team) illustreert deze technische thread concreet wat de integratie van Bun naar het Claude-ecosysteem brengt.
GitHub Copilot: opt-out voor interactiedata vóór 24 april
25 maart — Mario Rodriguez, productdirecteur bij GitHub, kondigt een update aan van het beleid voor het gebruik van interactiedata van Copilot. Vanaf 24 april 2026 zal GitHub de interactiedata van gebruikers van Copilot Free, Pro en Pro+ — invoer, uitvoer, codefragmenten en bijbehorende context — gebruiken om zijn AI-modellen te trainen en te verbeteren.
De betrokken gebruikers kunnen deze deling uitschakelen via hun accountinstellingen vóór die datum. Abonnees van Copilot Business en Copilot Enterprise worden niet door deze wijziging geraakt — hun data blijven onder bestaande contractuele afspraken die training uitsluiten.
| Plan | Betrokken door deze wijziging | Opt-out beschikbaar |
|---|---|---|
| Copilot Free | Ja | Ja |
| Copilot Pro | Ja | Ja |
| Copilot Pro+ | Ja | Ja |
| Copilot Business | Nee | — |
| Copilot Enterprise | Nee | — |
De kanteldatum is 24 april: gebruikers die de deling niet vóór die datum hebben uitgeschakeld, beginnen bij te dragen aan de trainingsdata.
🔗 Update beleid gebruik interactiedata GitHub Copilot 🔗 Aankondiging op X
Lyria 3 Pro: muziekstukken tot 3 minuten met muzikale architectuur
25 maart — Google DeepMind lanceert Lyria 3 Pro, een geavanceerde versie van het muziekgeneratiemodel Lyria 3 dat vorige maand verscheen. De belangrijkste vernieuwing: de mogelijkheid om tracks tot 3 minuten te genereren, tegenover 30 seconden bij de vorige generatie — een factor 6.
Het model bevat nu muzikale architectuur (musical architecture) — intro’s, coupletten, refreinen, bridges — wat het mogelijk maakt om nummers met coherente overgangen en uitgewerkte structuren te produceren. Prompts accepteren tekst, afbeeldingen of video’s als uitgangspunt.
| Platform | Toegang | Status |
|---|---|---|
| Gemini-app | Betaalde abonnees | Beschikbaar |
| Google AI Studio + API Gemini | Ontwikkelaars | Beschikbaar met Lyria RealTime |
| Vertex AI | Bedrijven | Publieke preview |
| Google Vids | Workspace + AI Pro/Ultra | Uitrol week van 25 maart |
| ProducerAI | Gratis en betaald | Agent-achtige ervaring voor muzikanten |
Lyria 3 Pro is gebruikt door producer Yung Spielburg voor de korte film van Google DeepMind “Dear Upstairs Neighbors”, en een samenwerking met DJ François K voor een aankomend nummer is aangekondigd.
🔗 Officiële Google-blog — Lyria 3 Pro 🔗 Aankondiging op X
NVIDIA Nemotron Coalition: open foundation models van frontier-niveau
25 maart — Tijdens NVIDIA GTC 2026 kondigt Jensen Huang de oprichting aan van de NVIDIA Nemotron Coalition, een mondiale coalitie van modelbouwers gericht op de ontwikkeling van open foundation models op frontier-niveau (frontier open foundation models).
Het eerste concrete project van de coalitie wordt een basismodel dat samen door Mistral AI en NVIDIA wordt ontwikkeld, met leden die bijdragen aan data, evaluaties en domeinexpertise. Panelleden tijdens de GTC-sessie waren onder meer Mira Murati (Thinking Machines Lab), Aravind Srinivas (Perplexity), Arthur Mensch (Mistral), Robin Rombach (Black Forest Labs), evenals vertegenwoordigers van Cursor en Ai2.
Enkele cijfers die tijdens het evenement naar voren kwamen:
- NVIDIA is nu de grootste organisatie op Hugging Face, met ongeveer 4.000 leden
- De Nemotron-modellen zijn meer dan 45 miljoen keer gedownload
“Proprietary versus open is not a thing. It’s proprietary and open.”
🇳🇱 Het onderscheid tussen proprietair en open bestaat eigenlijk niet. Het is zowel proprietair als open. — Jensen Huang, NVIDIA GTC 2026
🔗 NVIDIA-blog — The Future of AI Is Open and Proprietary
OpenAI: achter de schermen van de Model Spec en bijbehorende evaluaties
25 maart — OpenAI publiceert een gedetailleerde verklaring over zijn aanpak rond de Model Spec — het publieke kader dat definieert hoe zijn modellen zich geacht worden te gedragen. Dit stuk, geschreven door Jason Wolfe (onderzoeker bij OpenAI), legt de filosofie, structuur en evolutiemechanismen uit.
De Model Spec is opgebouwd rond meerdere onderscheiden niveaus:
| Niveau | Beschrijving |
|---|---|
| Intenties en publieke engagementen | Hoge-niveau doelen: iteratieve uitrol, voorkomen van ernstige schade |
| Ketting van bevelvoering (Chain of Command) | Regels om conflicten op te lossen tussen instructies van OpenAI, ontwikkelaars en gebruikers |
| Strikte regels (Hard rules) | Niet-aanpasbare limieten: catastrofale risico’s, lichamelijk letsel, illegale inhoud |
| Standaardgedragingen | Beginselen die door ontwikkelaars en gebruikers aangepast kunnen worden |
| Hulp bij interpretatie | Besluitregels en voorbeelden voor ambigue gevallen |
De kernonderscheiding: de strikte regels zijn onomzeilbaar (niveau “root”), terwijl de standaardgedragingen configureerbaar zijn — dit maakt het mogelijk om gebruikersvrijheid te maximaliseren binnen beveiligingsgrenzen.
OpenAI stelt dat een voldoende geavanceerde AI niet zomaar het juiste gedrag kan afleiden uit algemene doelen zoals “nuttig en veilig” — zulke formuleringen zijn te contextafhankelijk en vereisen waarderingsafwegingen. De Model Spec dient als interne doelstelling, transparantietool en coördinatiemechanisme tussen teams.
Tegelijkertijd publiceert OpenAI de Model Spec Evals — een reeks evaluaties van scenario’s die proberen de claims van de Model Spec te dekken met representatieve voorbeelden, om de verschillen tussen het werkelijke modelgedrag en de specificatie te meten.
🔗 Inside our approach to the Model Spec 🔗 Aankondiging op X
Genspark Realtime Voice: handsfree spraakassistent
25 maart — Genspark lanceert Realtime Voice, een realtime spraakassistent die volledig handsfree werkt. De use-case die tijdens de lancering werd benadrukt: gebruik in de auto tijdens het woon-werkverkeer.
De aangekondigde functies omvatten agendacontrole, het versturen van e-mails en berichten, informatieopzoekingen en het samenstellen van reistracklists. De assistent kan ook presentaties (slides) genereren, diepgaand onderzoek uitvoeren (deep research) en data analyseren — volledig via spraak.
OpenAI Safety Bug Bounty: meldingen van AI-risico’s
25 maart — OpenAI lanceert een speciaal bug bounty-programma voor AI-veiligheid, los van het bestaande klassieke beveiligingsprogramma voor software. Dit nieuwe programma accepteert meldingen van misbruikrisico’s die niet noodzakelijk als traditionele softwarekwetsbaarheden worden gezien.
| Categorie binnen scope | Voorbeelden |
|---|---|
| Agentische risico’s (inclusief MCP) | Injection van derden prompts, exfiltratie via agents, ongeautoriseerde grootschalige acties |
| OpenAI-eigen informatie | Generatie die vertrouwelijke redeneerinformatie onthult |
| Integriteit van accounts en platformen | Omzeilen van anti-automatiseringscontrole, manipulatie van vertrouwenssignalen |
Klassieke jailbreaks blijven buiten de scope. OpenAI geeft ook aan af en toe private campagnes uit te voeren rond specifieke schadetypes — bijvoorbeeld bio-risico-inhoud in ChatGPT Agent en GPT-5.
🔗 Introducing the OpenAI Safety Bug Bounty program
Codex Creator Challenge: studentenwedstrijd met $10.000 aan credits
25 maart — OpenAI en Handshake lanceren de Codex Creator Challenge, een wedstrijd voor studenten om echte projecten te bouwen met Codex. Als prijs zijn er $10.000 aan OpenAI API-credits te winnen. De uitdaging nodigt studenten uit om met Codex te experimenteren en concrete applicaties te bouwen.
ElevenLabs: Guardrails 2.0 in ElevenAgents, gecertificeerd AIUC-1
24 maart — ElevenLabs rolt Guardrails 2.0 uit binnen het ElevenAgents-platform. Deze beveiligingslaag maakt het mogelijk het gedrag van agents in productie te beheersen met aangepaste bedrijfsbeleid of vooraf geconfigureerde beschermingen: onderwerpbehoud (on-topic), merksamenhang (on-brand), weerstand tegen manipulatie.
Guardrails 2.0 is gecertificeerd als AIUC-1 (AI Use Case standard) en bevat functies voor databescherning, het schrijven van conversatiegeschiedenis en monitoring na uitrol.
PrismAudio: open-source video-naar-audio model door Tongyi Lab (Alibaba)
24 maart — Tongyi Lab van Alibaba publiceert PrismAudio, een Video-to-Audio-model. In tegenstelling tot klassieke V2A-benaderingen die alles optimaliseren met één loss-functie, gebruikt PrismAudio een “Decomposed Multi-CoT”-architectuur met drie gespecialiseerde heads — elk gericht op een ander aspect van audiogeneratie.
Het model is getraind met Multi-Dimensional RL en Fast-GRPO om audio-output af te stemmen op menselijke voorkeuren. De resources (model, demo, arXiv-paper) zijn gepubliceerd via HuggingFace, ModelScope en een projectpagina.
Claude Code v2.1.83: gecentraliseerd beheer van Enterprise-instellingen
25 maart — Versie 2.1.83 van Claude Code introduceert de drop-in directory managed-settings.d/, bedoeld voor Enterprise-beheerders. Deze directory stelt organisaties in staat Claude Code-instellingen centraal te beheren door configuratiebestanden te plaatsen die voor alle werkstations in de deployment gelden.
Kling AI Team Plan: samenwerking tot 15 leden
24 maart — Kling AI lanceert het Team Plan, een samenwerkingsplan waarmee teams tot 15 leden gezamenlijk op het platform kunnen werken. Het plan bevat gedeelde assets en commercieel gebruik van creaties.
Manus Desktop: credits gehalveerd tot 30 maart
24 maart — Manus biedt een tijdelijke promotie op zijn Desktop-app: van 24 tot 30 maart 2026 verbruikt elke taak 50% minder credits. Bestaande credits zijn dus gedurende die periode dubbel zo veel waard voor alle taken uitgevoerd via Manus Desktop.
NVIDIA schenkt zijn DRA GPU-driver aan de Kubernetes-gemeenschap
24 maart — Rond NVIDIA GTC 2026 kondigt NVIDIA de schenking van zijn Dynamic Resource Allocation (DRA) GPU-driver aan de Kubernetes-gemeenschap aan. Deze bijdrage past in NVIDIAs open-source engagement en vergemakkelijkt dynamische toewijzing van GPU-resources in Kubernetes-omgevingen.
🔗 NVIDIA-blog — AI Future Open and Proprietary
Wat dit betekent
De twee Anthropic-aankondigingen in deze periode vullen elkaar aan: de mobiele integratie van Figma, Canva en Amplitude brengt Claude dichter bij dagelijkse professionele workflows, terwijl de opstartverbeteringen van Claude Code (2,8x) en het Agent SDK (5,1x) de ervaring van ontwikkelaars die het continu gebruiken concreet verbeteren. Deze twee assen — consumentenmobiel gebruik en ontwikkelaarsprestaties — illustreren Anthropics dubbele traject.
De beslissing van GitHub Copilot over interactiedata is de meest ingrijpende voor individuele ontwikkelaars: voor het eerst zien gebruikers van publieke plannen (Free, Pro, Pro+) hun interacties mogelijk gebruikt worden voor training. Er is een opt-out, maar die moet vóór 24 april geactiveerd worden — een relatief korte termijn om in de gaten te houden.
De Nemotron Coalition van NVIDIA is een sterk signaal voor de open-sourcestrategie van de industrie. Door Mistral, Black Forest Labs, Cursor en anderen te verenigen in een formele coalitie om models op frontier-niveau te ontwikkelen, positioneert NVIDIA open source niet langer alleen als alternatief voor proprietaire modellen, maar als een volwaardige aanvullende categorie. De uitspraak van Jensen Huang — “proprietary and open”, niet “versus” — vat deze heroriëntatie goed samen. Lyria 3 Pro bevestigt dat muzikale generatie vordert richting productieklaar bruikbare formaten: 3 minuten met een coherente structuur (intro’s, coupletten, refreinen) verandert de aard van de toepassing, van experimentele fragmenten naar volledige nummers. De beschikbaarheid op meerdere Google-platforms al in de week van de lancering versnelt de adoptie.
De publicatie van de Model Spec Evals door OpenAI — een reeks evaluaties die de verschillen meet tussen modelgedrag en schriftelijke specificatie — is opmerkelijk: het is een van de eerste publieke pogingen om objectief te meten hoe goed een model overeenkomt met zijn eigen gedragsregels.
Bronnen
- Update van het gegevensbeleid van GitHub Copilot
- Tweet @github — gegevensbeleid
- Google-blog — Lyria 3 Pro
- Tweet @GoogleAI — Lyria 3 Pro
- NVIDIA-blog — De toekomst van AI is open en propriëtair
- Tweet @NVIDIAAI — Cohere + soevereine AI GTC
- OpenAI — Over onze aanpak van de Model Spec
- Tweet @OpenAI — Model Spec
- OpenAI — Safety Bug Bounty-programma
- Tweet @OpenAIDevs — Codex Creator Challenge
- Tweet @genspark_ai — Realtime Voice
- Tweet @ElevenLabs — Guardrails 2.0
- Tweet @Ali_TongyiLab — PrismAudio
- Tweet @ManusAI — Manus Desktop promo
- Tweet @claudeai — Claude mobiele werktools
- Thread @jarredsumner — Claude Code opstart 2,8x / Agent SDK 5,1x
- CHANGELOG Claude Code — v2.1.83
- Tweet @Kling_ai — Teamplan
Dit document is vertaald van de fr‑versie naar de nl‑taal met behulp van het model gpt-5-mini. Voor meer informatie over het vertaalproces, raadpleeg https://gitlab.com/jls42/ai-powered-markdown-translator