Zoeken

Claude integreert Figma/Canva op mobiel en Claude Code start 2,8x sneller, GitHub Copilot verandert zijn gegevensbeleid

Claude integreert Figma/Canva op mobiel en Claude Code start 2,8x sneller, GitHub Copilot verandert zijn gegevensbeleid

De 25 en 26 maart brengen meerdere belangrijke aankondigingen van Anthropic: Claude integreert Figma, Canva en Amplitude als werktools rechtstreeks vanaf mobiel, en Claude Code ziet zijn opstart 2,8x sneller dankzij 60 dagen Bun-optimalisaties. GitHub Copilot wijzigt zijn beleid voor het gebruik van interactiedata met een opt-out die vóór 24 april geactiveerd moet worden. Google DeepMind lanceert Lyria 3 Pro met muziekgeneratie tot 3 minuten, en NVIDIA richtte de Nemotron Coalition op tijdens GTC 2026.


Claude: werktools op mobiel (Figma, Canva, Amplitude)

25 maart — Claude integreert nu drie werktools die rechtstreeks vanuit de mobiele app toegankelijk zijn: Figma, Canva en Amplitude. Gebruikers kunnen zo design-, creatie- en analyse-workflows vanaf hun telefoon beheren zonder de Claude-interface te verlaten.

De aankondiging op X, vergezeld van een demonstratievideo, genereerde 1,9 miljoen weergaven in enkele uren — een teken dat de integratie van professionele tools in de mobiele interface sterk aansluit bij de vraag.

🔗 Aankondiging @claudeai op X


Claude Code: opstart 2,8x sneller, Agent SDK 5,1x

24 maart — Na 60 dagen optimalisaties geleid door Jarred Sumner (maker van Bun, overgenomen door Anthropic in december 2025) start Claude Code nu 2,8x sneller, en de Agent SDK toont 5,1x betere prestaties.

Deze winst is het resultaat van laag-niveau werk aan de Bun-runtime in Claude Code — optimalisaties van de opstart, geheugengebruik en de initiële reactietijd. Gerepost door Brian Cherny (@bcherny, Claude Code-team) illustreert deze technische thread concreet wat de integratie van Bun naar het Claude-ecosysteem brengt.

🔗 Thread @jarredsumner op X


GitHub Copilot: opt-out voor interactiedata vóór 24 april

25 maart — Mario Rodriguez, productdirecteur bij GitHub, kondigt een update aan van het beleid voor het gebruik van interactiedata van Copilot. Vanaf 24 april 2026 zal GitHub de interactiedata van gebruikers van Copilot Free, Pro en Pro+ — invoer, uitvoer, codefragmenten en bijbehorende context — gebruiken om zijn AI-modellen te trainen en te verbeteren.

De betrokken gebruikers kunnen deze deling uitschakelen via hun accountinstellingen vóór die datum. Abonnees van Copilot Business en Copilot Enterprise worden niet door deze wijziging geraakt — hun data blijven onder bestaande contractuele afspraken die training uitsluiten.

PlanBetrokken door deze wijzigingOpt-out beschikbaar
Copilot FreeJaJa
Copilot ProJaJa
Copilot Pro+JaJa
Copilot BusinessNee
Copilot EnterpriseNee

De kanteldatum is 24 april: gebruikers die de deling niet vóór die datum hebben uitgeschakeld, beginnen bij te dragen aan de trainingsdata.

🔗 Update beleid gebruik interactiedata GitHub Copilot 🔗 Aankondiging op X


Lyria 3 Pro: muziekstukken tot 3 minuten met muzikale architectuur

25 maart — Google DeepMind lanceert Lyria 3 Pro, een geavanceerde versie van het muziekgeneratiemodel Lyria 3 dat vorige maand verscheen. De belangrijkste vernieuwing: de mogelijkheid om tracks tot 3 minuten te genereren, tegenover 30 seconden bij de vorige generatie — een factor 6.

Het model bevat nu muzikale architectuur (musical architecture) — intro’s, coupletten, refreinen, bridges — wat het mogelijk maakt om nummers met coherente overgangen en uitgewerkte structuren te produceren. Prompts accepteren tekst, afbeeldingen of video’s als uitgangspunt.

PlatformToegangStatus
Gemini-appBetaalde abonneesBeschikbaar
Google AI Studio + API GeminiOntwikkelaarsBeschikbaar met Lyria RealTime
Vertex AIBedrijvenPublieke preview
Google VidsWorkspace + AI Pro/UltraUitrol week van 25 maart
ProducerAIGratis en betaaldAgent-achtige ervaring voor muzikanten

Lyria 3 Pro is gebruikt door producer Yung Spielburg voor de korte film van Google DeepMind “Dear Upstairs Neighbors”, en een samenwerking met DJ François K voor een aankomend nummer is aangekondigd.

🔗 Officiële Google-blog — Lyria 3 Pro 🔗 Aankondiging op X


NVIDIA Nemotron Coalition: open foundation models van frontier-niveau

25 maart — Tijdens NVIDIA GTC 2026 kondigt Jensen Huang de oprichting aan van de NVIDIA Nemotron Coalition, een mondiale coalitie van modelbouwers gericht op de ontwikkeling van open foundation models op frontier-niveau (frontier open foundation models).

Het eerste concrete project van de coalitie wordt een basismodel dat samen door Mistral AI en NVIDIA wordt ontwikkeld, met leden die bijdragen aan data, evaluaties en domeinexpertise. Panelleden tijdens de GTC-sessie waren onder meer Mira Murati (Thinking Machines Lab), Aravind Srinivas (Perplexity), Arthur Mensch (Mistral), Robin Rombach (Black Forest Labs), evenals vertegenwoordigers van Cursor en Ai2.

Enkele cijfers die tijdens het evenement naar voren kwamen:

  • NVIDIA is nu de grootste organisatie op Hugging Face, met ongeveer 4.000 leden
  • De Nemotron-modellen zijn meer dan 45 miljoen keer gedownload

“Proprietary versus open is not a thing. It’s proprietary and open.”

🇳🇱 Het onderscheid tussen proprietair en open bestaat eigenlijk niet. Het is zowel proprietair als open.Jensen Huang, NVIDIA GTC 2026

🔗 NVIDIA-blog — The Future of AI Is Open and Proprietary


OpenAI: achter de schermen van de Model Spec en bijbehorende evaluaties

25 maart — OpenAI publiceert een gedetailleerde verklaring over zijn aanpak rond de Model Spec — het publieke kader dat definieert hoe zijn modellen zich geacht worden te gedragen. Dit stuk, geschreven door Jason Wolfe (onderzoeker bij OpenAI), legt de filosofie, structuur en evolutiemechanismen uit.

De Model Spec is opgebouwd rond meerdere onderscheiden niveaus:

NiveauBeschrijving
Intenties en publieke engagementenHoge-niveau doelen: iteratieve uitrol, voorkomen van ernstige schade
Ketting van bevelvoering (Chain of Command)Regels om conflicten op te lossen tussen instructies van OpenAI, ontwikkelaars en gebruikers
Strikte regels (Hard rules)Niet-aanpasbare limieten: catastrofale risico’s, lichamelijk letsel, illegale inhoud
StandaardgedragingenBeginselen die door ontwikkelaars en gebruikers aangepast kunnen worden
Hulp bij interpretatieBesluitregels en voorbeelden voor ambigue gevallen

De kernonderscheiding: de strikte regels zijn onomzeilbaar (niveau “root”), terwijl de standaardgedragingen configureerbaar zijn — dit maakt het mogelijk om gebruikersvrijheid te maximaliseren binnen beveiligingsgrenzen.

OpenAI stelt dat een voldoende geavanceerde AI niet zomaar het juiste gedrag kan afleiden uit algemene doelen zoals “nuttig en veilig” — zulke formuleringen zijn te contextafhankelijk en vereisen waarderingsafwegingen. De Model Spec dient als interne doelstelling, transparantietool en coördinatiemechanisme tussen teams.

Tegelijkertijd publiceert OpenAI de Model Spec Evals — een reeks evaluaties van scenario’s die proberen de claims van de Model Spec te dekken met representatieve voorbeelden, om de verschillen tussen het werkelijke modelgedrag en de specificatie te meten.

🔗 Inside our approach to the Model Spec 🔗 Aankondiging op X


Genspark Realtime Voice: handsfree spraakassistent

25 maart — Genspark lanceert Realtime Voice, een realtime spraakassistent die volledig handsfree werkt. De use-case die tijdens de lancering werd benadrukt: gebruik in de auto tijdens het woon-werkverkeer.

De aangekondigde functies omvatten agendacontrole, het versturen van e-mails en berichten, informatieopzoekingen en het samenstellen van reistracklists. De assistent kan ook presentaties (slides) genereren, diepgaand onderzoek uitvoeren (deep research) en data analyseren — volledig via spraak.

🔗 Aankondiging op X


OpenAI Safety Bug Bounty: meldingen van AI-risico’s

25 maart — OpenAI lanceert een speciaal bug bounty-programma voor AI-veiligheid, los van het bestaande klassieke beveiligingsprogramma voor software. Dit nieuwe programma accepteert meldingen van misbruikrisico’s die niet noodzakelijk als traditionele softwarekwetsbaarheden worden gezien.

Categorie binnen scopeVoorbeelden
Agentische risico’s (inclusief MCP)Injection van derden prompts, exfiltratie via agents, ongeautoriseerde grootschalige acties
OpenAI-eigen informatieGeneratie die vertrouwelijke redeneerinformatie onthult
Integriteit van accounts en platformenOmzeilen van anti-automatiseringscontrole, manipulatie van vertrouwenssignalen

Klassieke jailbreaks blijven buiten de scope. OpenAI geeft ook aan af en toe private campagnes uit te voeren rond specifieke schadetypes — bijvoorbeeld bio-risico-inhoud in ChatGPT Agent en GPT-5.

🔗 Introducing the OpenAI Safety Bug Bounty program


Codex Creator Challenge: studentenwedstrijd met $10.000 aan credits

25 maart — OpenAI en Handshake lanceren de Codex Creator Challenge, een wedstrijd voor studenten om echte projecten te bouwen met Codex. Als prijs zijn er $10.000 aan OpenAI API-credits te winnen. De uitdaging nodigt studenten uit om met Codex te experimenteren en concrete applicaties te bouwen.

🔗 Tweet @OpenAIDevs


ElevenLabs: Guardrails 2.0 in ElevenAgents, gecertificeerd AIUC-1

24 maart — ElevenLabs rolt Guardrails 2.0 uit binnen het ElevenAgents-platform. Deze beveiligingslaag maakt het mogelijk het gedrag van agents in productie te beheersen met aangepaste bedrijfsbeleid of vooraf geconfigureerde beschermingen: onderwerpbehoud (on-topic), merksamenhang (on-brand), weerstand tegen manipulatie.

Guardrails 2.0 is gecertificeerd als AIUC-1 (AI Use Case standard) en bevat functies voor databescherning, het schrijven van conversatiegeschiedenis en monitoring na uitrol.

🔗 Aankondiging op X


PrismAudio: open-source video-naar-audio model door Tongyi Lab (Alibaba)

24 maart — Tongyi Lab van Alibaba publiceert PrismAudio, een Video-to-Audio-model. In tegenstelling tot klassieke V2A-benaderingen die alles optimaliseren met één loss-functie, gebruikt PrismAudio een “Decomposed Multi-CoT”-architectuur met drie gespecialiseerde heads — elk gericht op een ander aspect van audiogeneratie.

Het model is getraind met Multi-Dimensional RL en Fast-GRPO om audio-output af te stemmen op menselijke voorkeuren. De resources (model, demo, arXiv-paper) zijn gepubliceerd via HuggingFace, ModelScope en een projectpagina.

🔗 Aankondiging op X


Claude Code v2.1.83: gecentraliseerd beheer van Enterprise-instellingen

25 maart — Versie 2.1.83 van Claude Code introduceert de drop-in directory managed-settings.d/, bedoeld voor Enterprise-beheerders. Deze directory stelt organisaties in staat Claude Code-instellingen centraal te beheren door configuratiebestanden te plaatsen die voor alle werkstations in de deployment gelden.

🔗 CHANGELOG Claude Code


Kling AI Team Plan: samenwerking tot 15 leden

24 maart — Kling AI lanceert het Team Plan, een samenwerkingsplan waarmee teams tot 15 leden gezamenlijk op het platform kunnen werken. Het plan bevat gedeelde assets en commercieel gebruik van creaties.

🔗 Aankondiging @Kling_ai op X


Manus Desktop: credits gehalveerd tot 30 maart

24 maart — Manus biedt een tijdelijke promotie op zijn Desktop-app: van 24 tot 30 maart 2026 verbruikt elke taak 50% minder credits. Bestaande credits zijn dus gedurende die periode dubbel zo veel waard voor alle taken uitgevoerd via Manus Desktop.

🔗 Aankondiging op X


NVIDIA schenkt zijn DRA GPU-driver aan de Kubernetes-gemeenschap

24 maart — Rond NVIDIA GTC 2026 kondigt NVIDIA de schenking van zijn Dynamic Resource Allocation (DRA) GPU-driver aan de Kubernetes-gemeenschap aan. Deze bijdrage past in NVIDIAs open-source engagement en vergemakkelijkt dynamische toewijzing van GPU-resources in Kubernetes-omgevingen.

🔗 NVIDIA-blog — AI Future Open and Proprietary


Wat dit betekent

De twee Anthropic-aankondigingen in deze periode vullen elkaar aan: de mobiele integratie van Figma, Canva en Amplitude brengt Claude dichter bij dagelijkse professionele workflows, terwijl de opstartverbeteringen van Claude Code (2,8x) en het Agent SDK (5,1x) de ervaring van ontwikkelaars die het continu gebruiken concreet verbeteren. Deze twee assen — consumentenmobiel gebruik en ontwikkelaarsprestaties — illustreren Anthropics dubbele traject.

De beslissing van GitHub Copilot over interactiedata is de meest ingrijpende voor individuele ontwikkelaars: voor het eerst zien gebruikers van publieke plannen (Free, Pro, Pro+) hun interacties mogelijk gebruikt worden voor training. Er is een opt-out, maar die moet vóór 24 april geactiveerd worden — een relatief korte termijn om in de gaten te houden.

De Nemotron Coalition van NVIDIA is een sterk signaal voor de open-sourcestrategie van de industrie. Door Mistral, Black Forest Labs, Cursor en anderen te verenigen in een formele coalitie om models op frontier-niveau te ontwikkelen, positioneert NVIDIA open source niet langer alleen als alternatief voor proprietaire modellen, maar als een volwaardige aanvullende categorie. De uitspraak van Jensen Huang — “proprietary and open”, niet “versus” — vat deze heroriëntatie goed samen. Lyria 3 Pro bevestigt dat muzikale generatie vordert richting productieklaar bruikbare formaten: 3 minuten met een coherente structuur (intro’s, coupletten, refreinen) verandert de aard van de toepassing, van experimentele fragmenten naar volledige nummers. De beschikbaarheid op meerdere Google-platforms al in de week van de lancering versnelt de adoptie.

De publicatie van de Model Spec Evals door OpenAI — een reeks evaluaties die de verschillen meet tussen modelgedrag en schriftelijke specificatie — is opmerkelijk: het is een van de eerste publieke pogingen om objectief te meten hoe goed een model overeenkomt met zijn eigen gedragsregels.


Bronnen

Dit document is vertaald van de fr‑versie naar de nl‑taal met behulp van het model gpt-5-mini. Voor meer informatie over het vertaalproces, raadpleeg https://gitlab.com/jls42/ai-powered-markdown-translator