Op 21 april 2026 domineren drie grote aankondigingen het AI-nieuws: OpenAI lanceert ChatGPT Images 2.0 met zijn eerste beeldmodel dat kan redeneren, Google DeepMind presenteert twee autonome zoekagents aangedreven door Gemini 3.1 Pro, en NVIDIA verstevigt een driepartijspartnerschap met Adobe en WPP rond creatieve agents voor enterprise marketing. Claude Code, Codex en Git 2.54 maken een dag vol tool-updates compleet.
ChatGPT Images 2.0 en gpt-image-2
21 april — OpenAI lanceert ChatGPT Images 2.0, onmiddellijk beschikbaar voor alle gebruikers van ChatGPT en Codex. Het onderliggende model, gpt-image-2, is tegelijk beschikbaar via de API.
Deze nieuwe versie markeert een breuk met de vorige generatie: het volgen van gedetailleerde instructies (instruction following) is aanzienlijk verbeterd, de plaatsing en precieze relatie tussen objecten is betrouwbaarder, de weergave van dichte tekst is herzien, en meerdere formaten (portret, landschap, vierkant) worden native ondersteund.
De denkmodus (thinking) is de belangrijkste vernieuwing. ChatGPT Images 2.0 is het eerste beeldmodel van OpenAI met redeneercapaciteiten. In thinking-modus, beschikbaar voor Plus-, Pro- en Business-abonnees (Enterprise binnenkort), kan het model:
- In realtime het web doorzoeken voor actuele informatie
- Meerdere verschillende beelden genereren vanuit één enkele prompt
- Zijn eigen output automatisch verifiëren en corrigeren
De onderzoeksteams van OpenAI lichtten de use cases toe in een thread: meertalige weergave en nauwkeurige tekst, slides en professionele infographics, meerdere formaten en resoluties, en het volgen van complexe instructies.
| Functionaliteit | Beschikbaarheid |
|---|---|
| ChatGPT Images 2.0 (standaard) | Alle ChatGPT- en Codex-gebruikers |
| thinking-modus | ChatGPT Plus, Pro, Business (Enterprise binnenkort) |
| API gpt-image-2 | Vanaf nu beschikbaar |
De leidraad van OpenAI voor deze lancering: het model “gaat van beeldgeneratie naar strategisch ontwerp, van een tool naar een visueel systeem.”
🔗 Introductie van ChatGPT Images 2.0 🔗 Tweet @OpenAI
Google Deep Research en Deep Research Max
21 april — Google DeepMind lanceert twee autonome zoekagents aangedreven door Gemini 3.1 Pro: Deep Research en Deep Research Max.
Deze agents navigeren zowel op het open web als op gepersonaliseerde data — interne documenten, gespecialiseerde financiële informatie — om volledig geciteerde professionele rapporten te produceren.
Deep Research is geoptimaliseerd voor snelheid en lage latentie, ideaal voor interfaces die snelle antwoorden vereisen. Deep Research Max benut een langere rekentijd (extended test-time compute) om iteratief te redeneren, zoekopdrachten te verfijnen en een rapport van hoge kwaliteit te produceren — ontworpen voor asynchrone verwerking op de achtergrond.
| Functionaliteit | Detail |
|---|---|
| MCP-ondersteuning | Veilige verbinding met eigen of externe bronnen |
| Native generatie van visuals | Eerste agent die grafieken en infographics genereert (HTML of Nano Banana 2) |
| Collaboratieve planning | De gebruiker kan het onderzoeksplan verfijnen vóór uitvoering |
| Multimodaliteit | PDF’s, CSV’s, afbeeldingen, audio en video geaccepteerd als input |
| Beschikbaarheid | Gemini API, betalende derden, openbare preview |
De native generatie van visuals is opmerkelijk: Deep Research Max kan grafieken en infographics rechtstreeks in zijn rapporten produceren, in HTML of via Nano Banana 2, zonder externe tool. Startups en bedrijven op Google Cloud zullen binnenkort aangekondigde beschikbaarheid krijgen.
🔗 Aankondiging @GoogleDeepMind 🔗 Artikel blog.google
NVIDIA × Adobe × WPP — Creatieve agents voor enterprise marketing
20 april — NVIDIA breidt zijn strategische samenwerkingen met Adobe en WPP uit om autonome AI-agents in te zetten in enterprise marketingoperaties. De aankondiging gaat gepaard met een live demonstratie op de Adobe Summit op 21 april, met Jensen Huang (CEO NVIDIA) en Shantanu Narayen (CEO Adobe).
De nieuwe oplossing Adobe CX Enterprise Coworker wordt georkestreerd door AI-agents die steunen op:
- NVIDIA OpenShell: veilige, observeerbare en controleerbare runtime voor agentische workflows
- NVIDIA Agent Toolkit en open-source Nemotron-modellen
- Adobe Firefly Foundry versneld door NVIDIA AI-infrastructuur
Concreet kan een wereldwijde retailer nu miljoenen product-/publieks-/kanaalcombinaties genereren in enkele minuten in plaats van maanden. 3D-digitale tweelingen (Omniverse + OpenUSD) dienen als persistente productidentiteiten om de productie van hoogwaardig content op schaal te automatiseren.
🔗 Artikel blogs.nvidia.com 🔗 Tweet @NVIDIAAI
Claude Code v2.1.116
19–21 april — Claude Code v2.1.116 brengt een reeks verbeteringen gericht op prestaties, betrouwbaarheid en terminalervaring.
De meest tastbare update: het commando /resume is tot 67% sneller op grote sessies (40 MB+), met beter beheer van “dead-fork”-inputs. De MCP-start is ook sneller met meerdere geconfigureerde stdio-servers.
Gebruikerservaring:
- De reflectie-indicator toont nu de voortgang inline (“still thinking”, “thinking more”, “almost done thinking”), ter vervanging van de aparte hintregel
/configkan zoeken op optiewaarde (bijv. zoeken naar “vim” vindt de parameter Editor mode)/doctorkan worden geopend terwijl Claude antwoordt, zonder te wachten tot het einde van de beurt
Beveiliging: de auto-allow sandbox omzeilt de controle op gevaarlijke paden voor rm/rmdir niet langer wanneer deze gericht zijn op /, $HOME of andere kritieke systeemmappen.
8 terminalfixes omvatten: Kitty-toetsenbordprotocol (Ctrl+-, Cmd+Links/Rechts), rendering van Devanagari-scripts, blokkering van Ctrl+Z via wrapperproces, duplicatie van scrollback in inline-modus, en meerdere fixes voor VS Code/Warp/Ghostty.
| Categorie | Belangrijkste wijziging |
|---|---|
| Prestaties | /resume 67% sneller op sessies van 40 MB+ |
| UX | Progressive thinking spinner, zoeken in /config op waarde |
| Beveiliging | Sandbox respecteert bescherming van kritieke paden |
| Terminals | 8 fixes (Kitty, VS Code, Warp, Ghostty, WezTerm) |
| Plugins | Automatische installatie van ontbrekende afhankelijkheden |
Live Artifacts in Claude Cowork
20 april — Anthropic lanceert “Live Artifacts” in Claude Cowork: dynamische dashboards en trackers die rechtstreeks verbonden zijn met de toepassingen en bestanden van de gebruiker.
In tegenstelling tot klassieke artefacts (statisch) worden Live Artifacts automatisch ververst bij het openen met de huidige gegevens. Ze worden opgeslagen in een nieuw speciaal tabblad met versiegeschiedenis, toegankelijk vanuit elke sessie.
“In Cowork, Claude can now build live artifacts: dashboards and trackers connected to your apps and files. Open one any time and it refreshes with current data.”
🇳🇱 “In Cowork kan Claude nu dynamische artefacts maken: dashboards en trackers die verbonden zijn met je apps en bestanden. Open er op elk moment een en hij ververst zich met de huidige gegevens.” — @claudeai op X
De functie is beschikbaar op alle betaalde plannen via een update van de Claude-app.
Codex in enterprise: Codex Labs en 7 integratiepartners
21 april — OpenAI zet een volgende stap in de enterprise-uitrol van Codex: 4 miljoen ontwikkelaars gebruiken het wekelijks (tegen 3 miljoen begin april, oftewel +33% in twee weken), en tegelijkertijd lanceert het Codex Labs en een partnerschapsprogramma met 7 wereldwijde integrators.
Codex Labs brengt OpenAI-experts rechtstreeks naar organisaties voor praktische workshops en werksessies, met als doel teams te helpen van experimenteel gebruik naar reproduceerbare uitrol te gaan.
De 7 integratiepartners (GSI): Accenture, Capgemini, CGI, Cognizant, Infosys, PwC en Tata Consultancy Services.
| Bedrijf | Gebruik van Codex |
|---|---|
| Virgin Atlantic | Testdekking, vermindering van technische schuld |
| Ramp | Versnelling van code reviews (code review) |
| Notion | Snelle ontwikkeling van nieuwe functionaliteiten |
| Cisco | Begrip van grote onderling verbonden repositories |
| Rakuten | Incident response (incident response) |
Codex breidt zich nu uit voorbij softwareontwikkeling: browsernavigatie, beeldgeneratie, geheugen, orkestratie van transversale taken.
🔗 Codex wereldwijd opschalen naar enterprises
Nano Banana Pro in Google AI Studio
20 april — Abonnees van Google AI Pro en Ultra krijgen nu bredere toegang tot Google AI Studio zonder dat een API-sleutel nodig is: toegang tot Nano Banana Pro en de Gemini Pro-modellen met verhoogde gebruikslimieten.
Je hoeft alleen maar in te loggen met je abonnementsaccount om van prototype naar productie te gaan. Deze ontwikkeling positioneert het Google AI-abonnement als een praktische brug voor ontwikkelaars die willen experimenteren zonder de complexiteit van facturatie per verzoek.
🔗 Aankondiging @GoogleAI 🔗 Artikel blog.google
Kimi FlashKDA open-source
21 april — Moonshot AI publiceert FlashKDA open-source, hun hoogwaardige CUTLASS-implementatie van de Kimi Delta Attention (KDA)-kernels.
| Metriek | Waarde |
|---|---|
| Speedup prefill vs baseline | 1,72× tot 2,22× op H20 |
| Integratie | Drop-in backend voor flash-linear-attention |
| Vereisten | SM90+, CUDA 12.9+, PyTorch 2.4+ |
FlashKDA werkt als een verwisselbare (drop-in) backend voor flash-linear-attention. De integratie is beschikbaar via de PR fla-org/flash-linear-attention#852.
🔗 GitHub-repo FlashKDA 🔗 Tweet @Kimi_Moonshot
Git 2.54
20 april — Git 2.54 is beschikbaar met drie structurele vernieuwingen.
git history (experimenteel) — Nieuwe subcommand om de geschiedenis te herschrijven zonder git rebase -i:
git history reword <commit>: het bericht van een commit aanpassen en branches in place herschrijvengit history split <commit>: een commit interactief opsplitsen in twee
Config-based hooks — Hooks kunnen nu worden gedefinieerd in Git-configuratiebestanden, niet meer alleen in .git/hooks. Dit maakt delen tussen meerdere repositories via ~/.gitconfig mogelijk, meerdere hooks voor dezelfde gebeurtenis, en individuele uitschakeling via hook.<name>.enabled = false.
Geometric repacking standaard — git maintenance gebruikt nu standaard de geometrische strategie, wat de prestaties verbetert zonder extra configuratie.
🔗 Hoogtepunten van Git 2.54 🔗 Tweet @github
Genspark Build in openbare preview
21 april — Genspark lanceert Genspark Build in public preview (public preview): een tool voor het maken van applicaties en websites, aangedreven door Claude Opus 4.7, die het hele proces bestrijkt van idee tot mockup, design, prototype en werkende code.
Plus- en Pro-gebruikers krijgen 3 dagen toegang zonder credits van 21 tot 24 april (9u PT). Genspark zegt te lanceren met “rough edges and all” — de tool is actief in ontwikkeling.
Diezelfde dag integreert Genspark ook Lyria 3 Music in zijn AI Music Agent en Gemini 3.1 Flash TTS in zijn AI Audio Agent.
🔗 Tweet Genspark Build 🔗 Tweet Lyria 3 + TTS
Cohere — Onderzoek naar speculative decoding voor MoE-modellen
21 april — Cohere publiceert een technisch onderzoeksartikel over de optimalisatie van mixture-of-experts-modellen (Mixture-of-Experts, MoE) met speculative decoding (speculative decoding).
Het team valideert op zijn productie-MoE-modellen — waaronder Command A (111 miljard parameters) — een niet-monotone winstcurve afhankelijk van de batchgrootte: de winst neemt eerst toe en daalt daarna. Twee sleutelmechanismen worden geïdentificeerd: temporele correlatie in expert-routing vermindert het aantal unieke experts dat in geheugen geladen moet worden met 20 tot 31%, en amortisatie van vaste kosten verklaart de hoge winst bij BS=1.
Genspark Claw: Kimi K2.6 vanaf dag één
21 april — Genspark integreert Kimi K2.6 vanaf de lanceringsdag (Day 0) in zijn Claw-tool, via een partnerschap met Fireworks AI dat de pre-launch- en testfasen begeleidde.
Anthropic STEM Fellows Program
21 april — Anthropic lanceert het STEM Fellows-programma, gericht op experts in wetenschap en techniek om naast de onderzoeksteams te werken aan projecten van enkele maanden, gevestigd in San Francisco.
Wat dit betekent
21 april markeert een samenkomst van redeneren en multimodale generatie. gpt-image-2 illustreert een duidelijke trend: generatieve modellen integreren redeneren als orkestratielaag, niet alleen als kwaliteitsverbetering. Het resultaat is een model dat kan zoeken, genereren, verifiëren en corrigeren in éénzelfde sessie.
Deep Research Max duwt dezelfde logica door aan de zoekkant: met MCP-ondersteuning kan de agent toegang krijgen tot gestructureerde eigen data, wat de weg opent naar autonome analytische workflows zonder gevoelige data te exporteren naar externe diensten.
Het NVIDIA × Adobe × WPP-partnerschap geeft aan dat de enterprise-adoptie van creatieve AI uit de pilotfase komt. OpenShell als controleerbare runtime beantwoordt aan een echte eis van grote organisaties: autonome agents moeten geobserveerd en getraceerd kunnen worden, niet alleen performant.
Aan de toolkant zijn de config-based hooks van Git 2.54 een discrete maar belangrijke architecturale evolutie: gedeelde hooks tussen repositories via ~/.gitconfig zullen teampraktijken voor de standaardisatie van lokale CI-workflows veranderen.
Bronnen - ChatGPT Images 2.0 geïntroduceerd
- Tweet @OpenAI — Images 2.0
- Codex wereldwijd opschalen naar ondernemingen
- Gemini Deep Research — blog.google
- Tweet @GoogleDeepMind — Deep Research
- Nano Banana Pro in AI Studio — blog.google
- Tweet @GoogleAI — AI Studio
- NVIDIA × Adobe × WPP — blogs.nvidia.com
- Tweet @NVIDIAAI — Adobe Summit
- CHANGELOG Claude Code v2.1.116
- Live Artifacts-aankondiging @claudeai
- Hoogtepunten van Git 2.54
- Tweet @github — Git 2.54
- Tweet Genspark Build
- Tweet Genspark Lyria 3 + TTS
- FlashKDA GitHub
- Tweet @Kimi_Moonshot — FlashKDA
- Cohere — MoE-speculatieve decodering
- STEM Fellows-aankondiging @AnthropicAI
Dit document is vertaald van de fr-versie naar de nl-taal met behulp van het model gpt-5.4-mini. Voor meer informatie over het vertaalproces, raadpleeg https://gitlab.com/jls42/ai-powered-markdown-translator