Deze week markeert een versnelling op drie gelijktijdige fronten: open modellen (Mistral Medium 3.5, NVIDIA Nemotron 3 Nano Omni), hardware-infrastructuur (Google TPU 8e generatie) en agent-ecosystemen (Vibe Remote Agents, Claude for Creative Work, GitHub Copilot). ElevenLabs bereikt daarnaast een nieuwe mijlpaal door zijn AI-muziekengine om te vormen tot een platform voor het grote publiek met monetisatie.
Mistral Medium 3.5, Vibe Remote Agents en Le Chat Work Mode
29 april — Mistral AI publiceert gelijktijdig drie belangrijke aankondigingen: het model Mistral Medium 3.5, de remote agents Vibe en de Werkmodus (Work Mode) in Le Chat.
Mistral Medium 3.5 in publieke preview
Medium 3.5 is een dense model met 128 miljard parameters dat instructievolging, redeneren en code verenigt in één enkele set gewichten, met een contextvenster van 256.000 tokens. Het kan lokaal draaien op slechts vier GPU’s.
| Kenmerk | Waarde |
|---|---|
| Architectuur | Dense 128B |
| Context | 256.000 tokens |
| SWE-Bench Verified | 77,6 % |
| τ³-Telecom | 91,4 |
| Licentie | Gewijzigde MIT (open weights) |
| API — inputtokens | $1,50 / miljoen |
| API — outputtokens | $7,50 / miljoen |
| Self-hosting (min. GPU) | 4 GPU |
Het model overtreft Devstral 2 en Qwen3.5-397B-A17B op SWE-Bench Verified, wat het op het moment van lancering positioneert als referentie onder open-weights-codemodellen. Het is beschikbaar via de Mistral API, Le Chat, Vibe, NVIDIA endpoints (build.nvidia.com) en de NVIDIA NIM-microservice.
Remote agents in Vibe
Vibe-codesessies kunnen nu in de cloud draaien, zonder lokaal open te blijven staan. Meerdere sessies draaien parallel terwijl de ontwikkelaar iets anders doet. Een lokale sessie kan met haar volledige geschiedenis en status naar de cloud worden “geteleporteerd”. Aan het einde van de taak opent de agent automatisch een pull request op GitHub en stuurt hij een melding naar de ontwikkelaar.
Vibe integreert native met GitHub (code + PR), Linear en Jira (tickets), Sentry (incidenten), Slack en Teams (meldingen). Elke sessie draait in een geïsoleerde sessie.
Werkmodus (Work Mode) in Le Chat (preview)
Een nieuwe agentische modus voor complexe taken in Le Chat: onderzoek uit meerdere bronnen, documentsynthese, het sorteren van de mailbox, het aanmaken van Jira-tickets, het versturen van samenvattingen via Slack. De connectors zijn standaard ingeschakeld in de Werkmodus. Elke zichtbare actie vereist expliciete goedkeuring voor gevoelige handelingen.
Google TPU 8e generatie — TPU 8t en TPU 8i
29 april — Google onthult zijn achtste generatie TPU-chips (Tensor Processing Unit), aangekondigd tijdens Google Cloud Next ‘26 in de week ervoor. Twee afzonderlijke chips vormen deze generatie, elk geoptimaliseerd voor een andere fase van de AI-cyclus.
A decade in the making, the chips for the agentic era have arrived. At @GoogleCloud’s Next ‘26 event last week, we unveiled our eighth-generation TPUs. TPU 8t: 3x more powerful than previous gen, 10x faster data movement, 97% productive resource utilization, training time from months to weeks. TPU 8i: tripled internal memory, 80% better perf/dollar, 5x latency reduction.
🇳🇱 Na tien jaar ontwikkeling zijn de chips voor het agentische tijdperk gearriveerd. Tijdens het Next ‘26-evenement van @GoogleCloud vorige week hebben we onze TPU’s van de achtste generatie onthuld. TPU 8t: 3 keer krachtiger dan de vorige generatie, 10 keer snellere dataverplaatsing, 97% productief gebruik van resources, trainingstijd teruggebracht van maanden naar weken. TPU 8i: intern geheugen verdrievoudigd, 80% betere prestaties per dollar, latency 5 keer verlaagd. — @GoogleAI op X
TPU 8t — training van modellen
| Verbetering | Detail |
|---|---|
| Ruwe kracht | 3× hoger dan de vorige generatie |
| Datadoorvoer | 10× sneller (opslag → chips) |
| Productief gebruik | 97 % van de resources (automatische detectie en omleiding van storingen) |
| Impact | Trainingstijd teruggebracht van meerdere maanden naar enkele weken |
TPU 8i — inferentie voor AI-agents
| Verbetering | Detail |
|---|---|
| Intern geheugen | Verdrievoudigd om complexe meerstapsredeneringen aan te kunnen |
| Kostenefficiëntie | +80 % prestaties per uitgegeven dollar |
| Latency | 5× verlaagd dankzij een nieuwe geïntegreerde engine |
Deze chips zijn ontworpen voor het agentische tijdperk: de TPU 8t versnelt het creëren van modellen, de TPU 8i stelt deze modellen in staat om te handelen (een vlucht boeken, een agenda beheren) in quasi-realtime. Google positioneert deze dubbele architectuur als de technologische basis van het komende decennium.
Claude for Creative Work — Blender, Autodesk Fusion, Adobe en 5 andere MCP-connectors
28 april — Anthropic lanceert een reeks officiële MCP-connectors (Model Context Protocol) voor professionals in de creatieve industrie, in samenwerking met Blender, Autodesk, Adobe, Ableton en Splice.
| Tool | Gebruik |
|---|---|
| Blender | Debuggen van 3D-scènes, tools maken, batchwijzigingen op alle objecten toepassen |
| Autodesk Fusion | 3D-modellen maken en wijzigen via natuurlijke taal |
| Adobe Creative Cloud | Beelden, video’s en designs realiseren via 50+ CC-tools |
| Ableton Live en Push | Verkennen van de officiële productdocumentatie |
| Splice | Zoeken naar rechtenvrije samples rechtstreeks vanuit Claude |
| Canva Affinity | Automatisering van repetitieve productietaken |
| SketchUp | Startpunt voor 3D-modellering via tekstuele beschrijving |
| Resolume / Touchdesigner | Realtime bediening via natuurlijke taal voor VJ’s en visuele artiesten |
“Claude now connects to the tools creative professionals already use. With the new Blender connector, you can debug a scene, build new tools, or batch-apply changes across every object, directly from Claude.”
🇳🇱 Claude maakt nu verbinding met de tools die creatieve professionals al gebruiken. Met de nieuwe Blender-connector kun je een scène debuggen, nieuwe tools maken of batchwijzigingen toepassen op alle objecten, rechtstreeks vanuit Claude. — @claudeai op X
Anthropic is ook toegetreden tot het Blender Development Fund als patronsponsor en ondersteunt daarmee de ontwikkeling van vrije software. De hoofdpost genereerde meer dan 10 miljoen weergaven in minder dan 24 uur (waarbij de Autodesk Fusion-post 11 miljoen bereikte), wat het tot een van de meest virale aankondigingen van Anthropic in meerdere maanden maakt.
De uitgelichte use cases: complexe software leren, tools uitbreiden met code (scripts, plugins, generatieve systemen via Claude Code), bruggen slaan tussen tools in een pipeline, automatisering van repetitieve taken (batchverwerking, scaffolding).
NVIDIA Nemotron 3 Nano Omni — omnimodaal open source-model 30B
28 april — NVIDIA lanceert Nemotron 3 Nano Omni, een omnimodaal open source-model dat vision, audio en taal verenigt in één architectuur.
| Parameter | Waarde |
|---|---|
| Architectuur | Hybride MoE 30B-A3B (30B totaal, 3B actief) |
| Context | 256K tokens |
| Modaliteiten (input) | Tekst, beelden, audio, video, documenten, grafieken, interfaces |
| Modaliteiten (output) | Tekst |
| Efficiëntie | 9× meer doorvoer dan andere open omnimodale modellen |
| Beschikbaarheid | Hugging Face, OpenRouter, build.nvidia.com, 25+ partnerplatforms |
Het model blinkt uit in drie use cases: computer use (navigatie van grafische interfaces in native resolutie 1920×1080), documentintelligentie (interpretatie van PDF’s, tabellen, grafieken, screenshots) en het behouden van audio-video-context binnen één enkele redeneerflow.
Organisaties zoals Aible, H Company, Palantir, Foxconn en Oracle evalueren het model al bij de lancering. H Company integreert het in zijn computer use-agent.
“To build useful agents, you can’t wait seconds for a model to interpret a screen. By building on Nemotron 3 Nano Omni, our agents can rapidly interpret full HD screen recordings — something that wasn’t practical before.”
🇳🇱 Om nuttige agents te bouwen, kun je niet seconden wachten tot een model een scherm interpreteert. Door voort te bouwen op Nemotron 3 Nano Omni kunnen onze agents full HD-schermopnames snel interpreteren — iets wat eerder niet praktisch was. — Gautier Cloix, CEO van H Company
De Nemotron-familie bereikt bovendien 50 miljoen cumulatieve downloads over alle Nano/Super/Ultra-varianten in één jaar.
ElevenMusic — AI-muziekplatform (ontdekking, remix, creatie, monetisatie)
29 april — ElevenLabs lanceert ElevenMusic, een AI-muziekplatform dat luisteren, remix en originele creatie in één systeem samenbrengt, met directe monetisatie voor artiesten.
| Functionaliteit | Beschrijving |
|---|---|
| Ontdekking | 4.000+ onafhankelijke artiesten, gecureerde catalogus |
| Remix | Genre veranderen, tempo aanpassen, een track herinterpreteren |
| Creatie | Op basis van songtekst, melodie of sfeer |
| Publicatie | Distributie + monetisatie via betrokkenheid van fans |
Het economische model is geïnspireerd op de Voice Library van ElevenLabs, die al $11 miljoen heeft uitgekeerd aan zijn creators. Artiesten publiceren en verdienen op basis van de betrokkenheid van luisteraars, zonder tussenliggend label.
ElevenMusic wordt gelanceerd met Eleven Album Vol. 2, een compilatie met onder meer Danger Twins en Justin Love, ontworpen om binnen het platform te worden ervaren en geremixt. Kevin Jonas Sr. (Jonas Group Entertainment) en Amy Stroup (Danger Twins) behoren tot de artistieke partners bij de lancering.
“Fans want to feel like they’re part of the music, the songwriters, and the artists. ElevenMusic gives them a way in, turning a song into something people can step into, not just listen to.”
🇳🇱 Fans willen het gevoel hebben dat ze deel uitmaken van de muziek, de songwriters en de artiesten. ElevenMusic geeft hun een ingang en verandert een nummer in iets waar mensen in kunnen stappen, niet alleen naar kunnen luisteren. — Kevin Jonas Sr., Oprichter en Voorzitter van Jonas Group Entertainment
Het platform is vanaf 29 april 2026 beschikbaar als mobiele app en op het web.
🔗 @ElevenLabs-aankondiging op X — 🔗 ElevenLabs-blog
GitHub Copilot code review — dubbele facturatie vanaf 1 juni 2026
27 april — GitHub kondigt aan dat vanaf 1 juni 2026 elke geautomatiseerde code review door GitHub Copilot GitHub Actions-minuten zal verbruiken, boven op de AI-credits die al voorzien zijn in het nieuwe usage-based model.
Tot nu toe verbruikten Copilot-code reviews alleen premium request units (premium request units, PRU). Vanaf 1 juni worden voor private repositories twee tellers tegelijk geactiveerd:
| Teller | Detail |
|---|---|
| AI Credits | Elk Copilot-gebruik (inclusief code review) gefactureerd in AI-credits, conform het usage-based model |
| GitHub Actions-minuten | Verbruikt uit de bundel van het plan voor elke review op een private repository; extra minuten gefactureerd tegen standaard Actions-tarieven |
Deze dubbele telling wordt verklaard door de agentische architectuur van Copilot code review: de tool steunt op GitHub-hosted runners om de bredere context van de repository te analyseren en relevantere feedback te produceren.
Betrokken plannen: Copilot Pro, Pro+, Business, Enterprise — inclusief reviews gestart door niet-gelicentieerde gebruikers via rechtstreekse facturatie aan de organisatie.
Publieke repositories: geen verandering, Actions-minuten blijven gratis.
Om je voor te bereiden vóór 1 juni:
- Controleer het huidige Actions-verbruik in de factureringsinstellingen
- Pas indien nodig de Actions-uitgavenlimieten (spending limits) aan
- Informeer de verantwoordelijken voor facturatie binnen de organisatie
OpenAI DevDay 2026 — San Francisco, 29 september
29 april — OpenAI kondigt de terugkeer aan van zijn jaarlijkse evenement voor ontwikkelaars: OpenAI DevDay 2026 vindt plaats op 29 september in San Francisco. De officiële inschrijvingen zijn nog niet geopend.
Om de belangstelling vooraf aan te wakkeren, lanceert OpenAI een wedstrijd: ontwikkelaars die iets bouwen met GPT-5.5 en beeldgeneratie kunnen kans maken op een vroege uitnodiging. De procedure: een link naar het project indienen, samen met een notitie waarin wordt uitgelegd hoe het is gebouwd, met de officiële hashtag #OpenAIDevDay2026.
| Detail | Waarde |
|---|---|
| Datum | 29 september 2026 |
| Locatie | San Francisco |
| Officiële hashtag | #OpenAIDevDay2026 |
| Tweetweergaven (eerste uren) | 239.000+ |
De aankondiging wordt vijf maanden van tevoren gepubliceerd, wat ongewoon vroeg is voor een DevDay. Eerdere edities vormden het kader voor OpenAI’s meest structurerende productlanceringen voor de ontwikkelaarsgemeenschap: in 2023 werden GPT-4 Turbo en de Assistants API daar gepresenteerd. Met de huidige versnelling van het release-tempo — GPT-5.5, beeldgeneratie, Codex CLI — tekent DevDay 2026 zich af als een belangrijk moment op de kalender voor technische teams die OpenAI-modellen in productie integreren.
Een aparte thread nodigt ontwikkelaars uit om hun creaties nu al te delen. Het account @OpenAIDevs deelde de aankondiging binnen enkele minuten na de hoofdpublicatie.
Agent-ecosysteem en nieuwe integraties
Claude Code CLI v2.1.120–2.1.123 — 50+ fixes
28 april — Het Claude Code-team licht de fixes toe die zijn aangebracht in de laatste vier versies van de CLI (v2.1.120 tot v2.1.123): meer dan 50 verbeteringen op het gebied van stabiliteit en prestaties.
| Metriek | Waarde |
|---|---|
| Betrokken versies | v2.1.120, v2.1.121, v2.1.122, v2.1.123 |
| Aantal fixes | 50+ |
Prestatieverbetering /resume | Tot 67% sneller |
| Threadweergaven @ClaudeDevs | 493 k |
De vijf aandachtspunten: versnelling van lange sessies (/resume tot 67% sneller), gestabiliseerde macOS-authenticatie (een dozijn keychain-fixes), lager geheugengebruik op Linux, WebFetch zonder vastlopers op grote pagina’s, kopiëren-en-plakken waarbij regeleinden behouden blijven vanuit Windows en Xcode.
OpenAI × AWS — Codex en Managed Agents op Amazon Bedrock
28 april — OpenAI en AWS breiden hun strategische partnerschap uit langs drie assen: toegang tot OpenAI-modellen in AWS-omgevingen, Codex op Bedrock (beperkte preview, voor organisaties die hun data binnen de Amazon-infrastructuur willen houden) en Bedrock Managed Agents aangedreven door OpenAI (direct beschikbaar). Codex telt meer dan 4 miljoen wekelijkse gebruikers.
Copilot cloud agent start 20% sneller
27 april — GitHub Copilot cloud agent start nu meer dan 20% sneller dankzij vooraf geconfigureerde runner-omgevingen via custom GitHub Actions-images. Deze verbetering komt boven op de al in maart 2026 geleverde reductie van 50%.
Gemini — generatie van downloadbare bestanden
29 april — Gemini kan nu rechtstreeks vanuit de chat downloadbare bestanden maken: PDF, Word (.docx), Excel (.xlsx), Google Docs/Sheets/Slides, CSV, LaTeX, RTF en Markdown. Meteen beschikbaar voor alle web- en mobiele gebruikers.
Mistral Workflows in publieke preview
27 april — Mistral AI lanceert Workflows in publieke preview, een enterprise-orkestratielaag gebouwd op de durable execution engine van Temporal (dezelfde infrastructuur als Netflix, Stripe, Salesforce). Flows worden geschreven in Python via de Mistral SDK v3.0 en vervolgens vanuit Le Chat geactiveerd door business teams. Organisaties als ASML, France Travail en La Banque Postale gebruiken het al.
Qwen FlashQLA — lineaire attentie-kernels
29 april — Qwen publiceert FlashQLA, een bibliotheek met hoogwaardige lineaire attentie-kernels gebouwd op TileLang, ontworpen voor agentische AI op persoonlijke apparaten: winst van 2–3× in de forward-pass en 2× in de backward-pass. Open source gepubliceerd op GitHub.
GPT Image 2 geïntegreerd in Manus Slides
29 april — Manus integreert GPT Image 2 in Manus Slides: point-and-click-bewerking van visuals, vervanging via prompt, generatie van presentatienotities, export naar Google Slides, PowerPoint, PDF, Google Drive en OneDrive.
Salesforce gekoppeld aan Genspark
29 april — Genspark integreert Salesforce in zijn agent-ecosysteem: verbinding via Genspark Claw (CLI-installatie op instructie) of Super Agent (directe verbinding). Use cases: automatische verwerking van klantverzoeken, kwartaaldashboards, geautomatiseerd beheer van de commerciële pipeline.
GPT-5.5 en ChatGPT Images 2.0 op Genspark
28 april — Genspark integreert GPT-5.5 in zijn AI-chat en ChatGPT Images 2.0 (GPT Image 2) in zijn afbeeldingsgenerator, respectievelijk toegankelijk via genspark.ai/agents en genspark.ai/ai_image.
Pika Agents — creatieve conversationele interface
28 april — Pika lanceert Pika Agents: een interface voor videocreatie die het promptvak vervangt door een gepersonaliseerde AI-agent (stem, gezicht, persoonlijkheid geconfigureerd door de gebruiker). De agent begrijpt creatieve intenties in natuurlijke taal en stelt samen, verfijnt en produceert alles in één gesprek.
Codex seats voor $0 voor ChatGPT Business tot eind juni
29 april — OpenAI stelt in aanmerking komende ChatGPT Business-abonnees in staat om Codex-seats toe te voegen zonder seatkosten tot eind juni 2026, als begeleiding van de uitbreiding van Codex op AWS.
60 jaar oud probleem van Erdős opgelost met GPT-5.5
28 april — OpenAI publiceert een podcastaflevering waarin Sébastien Bubeck en Ernest Ryu terugblikken op de oplossing van een wiskundig probleem dat al 60 jaar openstond, toegeschreven aan Paul Erdős, met hulp van GPT-5.5. De tweet overschrijdt 399.000 weergaven.
Korte berichten
-
DeepSeek-V4-Pro: promo -75% verlengd — De korting van 75% op de DeepSeek-V4-Pro API wordt verlengd tot 31 mei 2026. Promotietarieven: $0,003625/M tokens input (cache hit), $0,435 (cache miss), $0,87 output. 🔗 DeepSeek-tweet
-
Google DeepMind — Experience AI in Latijns-Amerika — Het educatieve programma Experience AI (Raspberry Pi Foundation) wordt uitgebreid naar Latijns-Amerika met als doel 24.000 opgeleide leraren en 1,25 miljoen bereikte leerlingen tegen 2028, gefinancierd met $4,6 miljoen door Google.org. 🔗 Google DeepMind-tweet
-
GPT-5.3-Codex verwijderd uit de Copilot Student-selector — Vanaf 27 april 2026 is GPT-5.3-Codex niet langer handmatig selecteerbaar in het Copilot Student-plan; het blijft toegankelijk via automatische selectie. 🔗 GitHub-changelog
-
Responses API — geblokkeerde domeinen voor web search — De Responses API van OpenAI maakt het nu mogelijk om specifieke domeinen te blokkeren terwijl web search ingeschakeld blijft, om precieze bronnen uit de resultaten uit te sluiten. 🔗 Tweet @charlierguo
-
OpenAI — inzet voor communityveiligheid — OpenAI publiceert een artikel waarin de veiligheidspraktijken in ChatGPT worden toegelicht: risicobeperking in het model, geautomatiseerde monitoring, koppeling aan hulpbronnen en melding aan de autoriteiten in ernstige gevallen. Transparantiepublicatie zonder nieuwe functionaliteit. 🔗 OpenAI-aankondiging
Wat dit betekent
De race rond open modellen wordt heviger. Mistral Medium 3.5 (128B, SWE-Bench 77,6%) en NVIDIA Nemotron 3 Nano Omni (30B, 9× efficiënter dan andere open omnimodale modellen) verschijnen gelijktijdig met permissieve licenties. Beide modellen positioneren zich als geloofwaardige alternatieven voor gesloten frontiers: Mistral op code en redeneren, Nemotron op agentische multimodaliteit. Deze druk houdt de kloof tussen propriëtaire modellen en open weights steeds kleiner.
Hardware-infrastructuur blijft de strategische bottleneck. Google’s TPU’s van de 8e generatie (3× bij training, 5× minder latency bij inferentie) illustreren dat de AI-race zich ook op silicium-niveau afspeelt. De aankondiging op Google Cloud Next ‘26 positioneert de Google-infrastructuur als een duurzaam concurrentievoordeel tegenover NVIDIA-GPU’s — ook al bestaan beide naast elkaar in echte deployments.
Het agentische ecosysteem fragmenteert in verticale specialisaties. Deze week nestelen AI-agents zich in creatieve tools (Claude for Creative Work met 8+ MCP-connectors), softwareontwikkeling (Vibe Remote Agents, Copilot cloud agent 20% sneller), muziek (ElevenMusic), video (Pika Agents), CRM’s (Salesforce in Genspark) en enterprise-workflows (Mistral Workflows). De vraag is niet langer “kan AI dit doen?” maar “in welke gespecialiseerde tool en volgens welk factureringsmodel?”.
Usage-based facturering verandert de economische modellen van ontwikkelaars. De overstap van GitHub Copilot code review naar dubbele telling (AI-credits + Actions-minuten) vanaf 1 juni, gecombineerd met het aanbod van Codex seats voor $0 voor ChatGPT Business, illustreert een dynamiek: uitgevers subsidiëren adoptie (tijdelijke gratis toegang, promo -75% DeepSeek) om gewoonten te creëren voordat usage-based facturering wordt genormaliseerd. Technische teams doen er goed aan hun AI-uitgavenposten vóór juni te auditen.
Bronnen
- Mistral Medium 3.5 + Vibe Remote Agents
- Aankondiging @mistralvibe op X
- Mistral Workflows
- Google TPU 8e generatie — @GoogleAI op X
- Claude for Creative Work — Anthropic
- NVIDIA Nemotron 3 Nano Omni — NVIDIA-blog
- ElevenMusic — ElevenLabs-blog
- GitHub Copilot code review → Actions-minuten
- Copilot cloud agent 20% sneller
- OpenAI DevDay 2026 — @OpenAI op X
- OpenAI × AWS
- Codex seats $0 — @OpenAIDevs op X
- Probleem van Erdős — @OpenAI op X
- Gemini-bestandsgeneratie — Google-blog
- Qwen FlashQLA — GitHub
- GPT Image 2 in Manus Slides
- Salesforce in Genspark
- GPT-5.5 en ChatGPT Images 2.0 op Genspark
- Pika Agents
- Claude Code CLI v2.1.123 — @ClaudeDevs op X
- DeepSeek-V4-Pro promo verlengd
- Google DeepMind Experience AI Latijns-Amerika
- GPT-5.3-Codex verwijderd uit Copilot Student
- Responses API geblokkeerde domeinen
- OpenAI inzet voor communityveiligheid
Dit document is vertaald van de fr-versie naar de nl-taal met behulp van het model gpt-5.4. Voor meer informatie over het vertaalproces, raadpleeg https://gitlab.com/jls42/ai-powered-markdown-translator