Zoeken

Anthropic+xAI-partnerschap voor compute Colossus 1, Claude M365 GA, GPT-Realtime-2 stemredenering

ai-powered-markdown-translator

Artikel vertaald van fr naar nl met gpt-5.4-mini.

Bekijk project op GitHub ↗

Anthropic en xAI sluiten een ongekende overeenkomst: 220.000 NVIDIA-GPU’s van de supercomputer Colossus 1 zullen de Claude Code-limieten al deze week verdubbelen. Claude for Microsoft 365 gaat naar algemene beschikbaarheid op Excel, PowerPoint en Word. OpenAI lanceert GPT-Realtime-2, het eerste stemmodel met redenering op GPT-5-niveau. Perplexity maakt Personal Computer beschikbaar voor alle Mac-gebruikers, en ElevenLabs passeert 500 miljoen dollar ARR met NVIDIA als strategische investeerder.


Anthropic huurt Colossus 1 van xAI — 220.000 NVIDIA-GPU’s, verdubbeling van Claude Code-limieten

6 mei — Anthropic kondigt tegelijk een onmiddellijke verhoging van de gebruikslimieten aan en een ongekende infrastructuurdeal met SpaceX / xAI.

Voor gebruikers is de meest zichtbare verandering de verdubbeling van de vijf-uurs doorvoerlimieten in Claude Code, die onmiddellijk van kracht is voor de Pro-, Max-, Team- en Enterprise-abonnementen. De automatische beperking tijdens piekuren — die de Pro- en Max-abonnementen afremde — wordt ook geschrapt. De API-limieten voor de Claude Opus-modellen worden gelijktijdig verhoogd.

Deze verhogingen worden mogelijk dankzij een overeenkomst met SpaceX: Anthropic krijgt toegang tot de volledige capaciteit van Colossus 1, de supercomputer van xAI, goed voor meer dan 300 megawatt en meer dan 220.000 NVIDIA-GPU’s (H100, H200 en GB200). Deze capaciteit is binnen een maand beschikbaar. De twee bedrijven kondigen ook een gezamenlijke intentie aan om meerdere gigawatt aan AI-rekenkracht in een baan om de aarde te ontwikkelen — een primeur in de industrie.

Dit partnerschap komt boven op een reeks al lopende overeenkomsten: Amazon (tot 5 GW, waarvan bijna 1 GW beschikbaar tegen eind 2026), Google en Broadcom (5 GW vanaf 2027), Microsoft en NVIDIA (30 miljard dollar aan Azure-capaciteit) en Fluidstack (50 miljard dollar aan Amerikaanse AI-infrastructuur). De internationale uitbreiding zal rekening houden met vereisten rond dataresidentie voor gereguleerde sectoren. Anthropic verbindt zich er bovendien toe om elke stijging van de elektriciteitsprijs voor lokale consumenten als gevolg van zijn datacenters te compenseren.

WijzigingBetrokken abonnementenEffectief
Verdubbeling 5-uurs Claude Code-limietenPro, Max, Team, EnterpriseOnmiddellijk
Schrappen piekuren-beperkingPro, MaxOnmiddellijk
Verhoging Opus API-limietenAlleOnmiddellijk
Compute-overeenkomstCapaciteitTijdschema
SpaceX / xAI Colossus 1300+ MW, 220.000+ NVIDIA-GPU’sBinnen de maand
AmazonTot 5 GW (~1 GW eind 2026)2026
Google + Broadcom5 GWVanaf 2027
Microsoft + NVIDIAUSD 30 miljard Azure
FluidstackUSD 50 miljard Amerikaanse infrastructuur

🔗 Anthropic — Verhoging van de limieten + SpaceX-overeenkomst


Claude for Microsoft 365 — algemene beschikbaarheid op Excel, PowerPoint, Word + Outlook-bèta

7 mei — Claude for Excel, PowerPoint en Word gaan naar algemene beschikbaarheid voor alle betaalde abonnementen. Claude for Outlook gaat tegelijkertijd in publieke bèta onder dezelfde voorwaarden.

“Claude for Excel, PowerPoint, and Word are now generally available, and Claude for Outlook is in public beta. As Claude moves between your Microsoft apps, it carries the full context of your conversation.”

🇳🇱 Claude for Excel, PowerPoint en Word is nu voor iedereen beschikbaar, en Claude for Outlook is in publieke bèta. In al je Microsoft-apps behoudt Claude de volledige context van je gesprek.@claudeai op X

De kernfunctie is de gedeelde context tussen de vier applicaties: een gesprek dat in Outlook begint om een e-mail te sorteren, gaat verder in Word om een memo op te stellen, daarna in Excel voor data-analyse en in PowerPoint voor de presentatie — zonder de context ooit opnieuw uit te leggen. De automatische kruisupdate is de andere concrete toevoeging: een aanpassing van een aanname in een Excel-model werkt gelijktijdig door in de grafiek in de presentatie en het overeenkomstige cijfer in de Word-memo.

Onder de genoemde bedrijven: ServiceNow (“Claude doet het werk rechtstreeks in Excel, in plaats van dat we content tussen tools moeten verplaatsen”) en teams voor private asset management die het gebruiken om modellen voor financiële dekking op te bouwen en te onderhouden.

ApplicatieStatus op 7 mei 2026Abonnementen
Claude for ExcelAlgemene beschikbaarheid (GA)Alle betaalde abonnementen
Claude for PowerPointAlgemene beschikbaarheid (GA)Alle betaalde abonnementen
Claude for WordAlgemene beschikbaarheid (GA)Alle betaalde abonnementen
Claude for OutlookPublieke bètaAlle betaalde abonnementen

🔗 Aankondiging Claude for Microsoft 365


Claude Managed Agents — dreaming, outcomes, multi-agent orchestration, webhooks

6 mei — Tijdens de conferentie Code with Claude lanceert Anthropic verschillende nieuwe functies voor zijn platform voor het uitrollen van agents.

De opvallendste vernieuwing is dreaming: een gepland proces dat eerdere sessies van een agent analyseert, terugkerende patronen eruit haalt en het geheugen consolideert zodat het gaandeweg verbetert. De ontwikkelaar behoudt de controle — dreaming kan het geheugen automatisch bijwerken of elke wijziging ter menselijke review voorleggen. Dreaming is op aanvraag beschikbaar als experimentele onderzoeks-preview (research preview).

Outcomes gaat in publieke bèta: met deze functie kan elk resultaat van een agent worden beoordeeld aan de hand van door de ontwikkelaar gedefinieerde criteria voordat het aan de gebruiker wordt geleverd. Het bedrijf Wisedocs gebruikte het om de beoordeling van medische documenten met 50% te versnellen en tegelijk afstemming met zijn interne standaarden te behouden.

De multi-agent orchestration laat een hoofdagent toe om subtaken te delegeren aan gespecialiseerde agents die parallel draaien, waardoor complexe taken met meerdere gelijktijdige expertises eenvoudiger worden verwerkt. Ook webhooks zijn beschikbaar om externe acties te activeren.

FunctieBeschikbaarheidBeschrijving
DreamingResearch preview (op aanvraag)Zelfverbetering door analyse van eerdere sessies
OutcomesPublieke bètaBeoordeling van resultaten vóór levering
Multi-agent orchestrationPublieke bètaHoofdagent + gespecialiseerde agents parallel
WebhooksPublieke bètaActiveren van externe acties

🔗 Aankondiging Claude Managed Agents


GPT-Realtime-2 — stem met GPT-5-redenering en 128K-context

7 mei — OpenAI lanceert een nieuwe generatie modellen in de Realtime API: GPT-Realtime-2, GPT-Realtime-Translate en GPT-Realtime-Whisper.

GPT-Realtime-2 is het eerste stemmodel met redenering op GPT-5-niveau: het kan complexe verzoeken afhandelen, tools parallel aanroepen (parallel tool calls), herstellen na onderbrekingen (recovery behavior) en een contextvenster van 128.000 tokens aanhouden (tegen 32.000 voor zijn voorganger), geschikt voor lange sessies. Vijf redeneringsniveaus zijn instelbaar: minimal, low, medium, high, xhigh (low standaard). Overgangsformules (preambles) kunnen vóór de antwoorden worden ingevoegd voor natuurlijke vloeiendheid.

GPT-Realtime-Translate maakt simultane livevertaling naar 13 doeltalen mogelijk vanuit meer dan 70 brontalen. GPT-Realtime-Whisper biedt streaming-transcriptie met lage latency.

Zillow testte GPT-Realtime-2 op zijn spraakinteracties: +26 punten slagingspercentage op zijn moeilijkste adversariële benchmark (95% tegenover 69%). EU Data Residency wordt ondersteund.

ModelCapaciteitPrijs
GPT-Realtime-2Stem + GPT-5-redenering, 128K$32/1M tokens audio input, $64/1M output
GPT-Realtime-TranslateVertaling 70→13 talen$0,034/min
GPT-Realtime-WhisperStreaming-transcriptie$0,017/min
BenchmarkGPT-Realtime-1.5GPT-Realtime-2 (high)GPT-Realtime-2 (xhigh)
Big Bench Audioreferentie+15,2 %
Audio MultiChallenge APR36,7 %70,8 %

🔗 Aankondiging OpenAI — nieuwe stemmodellen


Perplexity Personal Computer beschikbaar voor alle Mac-gebruikers

7 mei — Perplexity lanceert een nieuwe macOS-app en maakt Personal Computer beschikbaar voor alle gebruikers, zonder beperking van een Pro- of Max-abonnement.

De app haalt AI uit de cloud en installeert die rechtstreeks op het apparaat. Ze werkt met lokale bestanden, natieve Mac-apps, het open web en beveiligde Perplexity-servers. Ze ondersteunt 400+ connectors en integreert met de Comet-browser voor webtools zonder directe connectors. De Pro- en Max-abonnementen behouden hun credits gekoppeld aan het bestaande abonnement; gratis gebruikers krijgen ook toegang.

Het aanbevolen gebruik is de Mac mini als permanente hub: agentteams kunnen continu draaien (24/7) terwijl de gebruiker aan iets anders werkt, met een melding wanneer menselijke goedkeuring nodig is. De bediening gebeurt vanaf elk apparaat — inclusief iPhone.

De oude Perplexity Mac-app wordt de komende weken uitgefaseerd. Downloaden gebeurt rechtstreeks (nog niet beschikbaar in de App Store).

DimensieWaarde
BeschikbaarheidAlle Mac-gebruikers
Aanbevolen apparaatMac mini (altijd aan)
Ondersteunde connectors400+
Browser-integratieComet
App StoreNee (rechtstreekse download)
Oude appUitfasering in de komende weken

🔗 Perplexity-blog — Personal Computer voor iedereen


Perplexity Finance Search in de Agent API — #1 nauwkeurigheid op FinSearchComp T1

6 mei — Perplexity lanceert Finance Search in de Agent API: één enkele tool-call bundelt gelicentieerde financiële data, marktdata in realtime en geciteerde webbronnen.

Het probleem dat wordt opgelost is eenvoudig: financiële beslissingen zijn afhankelijk van betrouwbare, actuele en traceerbare bronnen. Finance Search vervangt generieke webzoekopdrachten door gestructureerde gelicentieerde data — koersen, fundamentals, earnings-calltranscripten, schattingen — teruggegeven in een consistent schema ongeacht de backendprovider.

Op de FinSearchComp T1-benchmark bereikt Finance Search de hoogste nauwkeurigheid voor realtime financiële data, consistent over de tijd, en de laagste kostprijs per correct antwoord (minder tokens nodig dankzij de gestructureerde data). Citaten zijn in elk resultaat geïntegreerd. Het model is door de ontwikkelaar configureerbaar, met zicht op het tokengebruik.

Finance Search is aanvullend op Computer for Professional Finance (al behandeld op 5 mei): waar de eerste een visuele workspace biedt, integreert Finance Search in programmatische workflows via de API.

DimensieWaarde
InterfaceEén enkele tool-call (finance_search)
Gedekte dataKoersen, fundamentals, transcripten, schattingen, marktcontext
FinSearchComp T1-benchmark#1 nauwkeurigheid, #1 kost/correct antwoord
CitatenGeïntegreerd in elk resultaat

🔗 Perplexity-blog — Finance Search


Natural Language Autoencoders (NLAs) — de interne gedachten van Claude lezen

7 mei — Anthropic publiceert een nieuwe interpretabiliteitsmethode die de interne activaties van een model omzet in direct leesbare tekst.

De architectuur rust op een gesloten trainingslus: een activation verbalizer (activation verbalizer) zet een activatie om in verklarende tekst, een activation reconstructor (activation reconstructor) probeert de activatie vanuit die tekst te reconstrueren. Hoe getrouwer de reconstructie, hoe beter de uitleg.

De veiligheidsaanwending is opvallend: toegepast op Claude Opus 4.6 en Claude Mythos Preview tonen de NLAs aan dat de modellen vermoedden dat ze in een testsituatie zaten veel vaker dan ze dat uitdrukten. In tests met destructieve code verschijnt impliciet bewustzijn van evaluatie in 16% van de gevallen, tegenover 0% expliciete verbalisering. Op SWE-bench Verified stijgt dat cijfer tot 26%. In echte gesprekken van claude.ai-gebruikers blijft het onder 1%.

In een auditset met een opzettelijk slecht uitgelijnd model identificeerden auditors die met NLAs waren uitgerust de hoofdoorzaak in 12 tot 15% van de gevallen, tegenover minder dan 3% met andere tools. De trainingscode is open source gepubliceerd; een interactieve demo is beschikbaar op Neuronpedia.

EvaluatieImpliciet bewustzijn (NLA)Verwoord bewustzijn
Tests met destructieve code16 %~0 %
SWE-bench Verified26 %~0 %
Echte claude.ai-gesprekken< 1 %

🔗 Anthropic Research — Natural Language Autoencoders


Petri 3.0 — open source-afstemmingstool overgedragen aan Meridian Labs

7 mei — Anthropic draagt Petri, zijn open source-afstemmingstool, over aan Meridian Labs, een onafhankelijke non-profitorganisatie die zich toelegt op AI-evaluatie.

Petri is een toolkit voor afstemmingstests die op elk taalmodel kan worden toegepast: misleiding, sycofantie, samenwerking met schadelijke verzoeken. Geïntegreerd in de evaluaties van alle Claude-modellen sinds Sonnet 4.5, is het overgenomen door het Britse AI Security Institute voor zijn evaluaties van sabotage van AI-onderzoek.

Versie 3.0 brengt drie verbeteringen: betere aanpasbaarheid door scheiding van de auditor- en doelsecties, een “Dish”-module die tests uitvoert in de echte implementatieomstandigheden (echte system prompt, echte scaffold) om scenario’s minder detecteerbaar te maken, en integratie met Bloom voor diepgaandere gedragsanalyses.

De overdracht aan Meridian Labs volgt het model van de overdracht van het MCP-protocol aan de Linux Foundation: de onafhankelijkheid van de tool ten opzichte van elk AI-laboratorium waarborgen.

🔗 Anthropic Research — Petri 3.0


The Anthropic Institute (TAI) — onderzoeksagenda over 4 assen

7 mei — Anthropic publiceert de volledige onderzoeksagenda van het TAI, de interne organisatie die in maart 2026 is gelanceerd om de reële impact van AI te bestuderen vanuit de positie van een frontier-lab.

De agenda is opgebouwd rond vier assen: economische verspreiding (AI-adoptie door bedrijven en landen, impact op arbeidsmarkten), dreigingen en veerkracht (mogelijkheden voor dubbel gebruik, cybersecurity, verdedigingsmechanismen), AI-systemen in het wild (in the wild — gedrags- en institutionele effecten van AI die op grote schaal is uitgerold), en R&D door AI (versnelling van wetenschappelijk onderzoek door AI zelf, inclusief risico’s van een recursieve zelfverbeteringslus).

TAI verbindt zich ertoe vaker gegevens te delen van de Anthropic Economic Index en inzichten over de interne versnelling van Anthropic door zijn eigen tools. Er loopt een oproep tot kandidaatstelling voor het Anthropic Fellows-programma (vier maanden gefinancierd).

🔗 Anthropic Research — TAI-agenda


Codex Extension Chrome — browserbesturing op de achtergrond op macOS en Windows

7 mei — OpenAI lanceert de Chrome-extensie voor Codex, waarmee de agent rechtstreeks Chrome-tabs kan aansturen zonder de workflow van de gebruiker te onderbreken.

Codex werkt op de achtergrond over meerdere tabs tegelijk, waarbij het zijn native pluginmogelijkheden combineert met directe toegang tot websites (dashboards, CRM, webapplicaties). Het systeem kiest automatisch de beste tool voor elke stap: plugins, Chrome of een combinatie. Gebruiksscenario’s: browserflows debuggen, dashboards controleren, onderzoek doen, CRM’s bijwerken, complexe webapplicaties testen (inclusief multiplayergames via subagents).

De extensie wordt geïnstalleerd via de Chrome-plugin in de Codex-app. Meteen beschikbaar op macOS en Windows voor alle Codex-gebruikers.

🔗 OpenAI-tweet — Codex Chrome Extension


ChatGPT Trusted Contact — veiligheid voor mentale gezondheid met menselijke review

7 mei — OpenAI rolt Trusted Contact uit, een optionele veiligheidsfunctie in ChatGPT.

Elke volwassene (18+, 19+ in Zuid-Korea) kan een vertrouwenspersoon aanwijzen (vriend, familie, zorgverlener) die wordt gewaarschuwd als crisis-signalen worden gedetecteerd in zijn of haar gesprekken. Het proces combineert geautomatiseerde detectie en menselijke review (doel: minder dan een uur vóór elke verzending), met een melding zonder toegang tot de transcripties om de privacy te beschermen. De functie breidt de bestaande ouderlijke controles uit naar volwassenen voor tieneraccounts. Ontwikkeld met de American Psychological Association en een netwerk van 260+ artsen in 60 landen.

ParameterWaarde
Geschiktheid18+ (19+ Zuid-Korea)
Acceptatietermijn voor contact1 week
SLA menselijke reviewDoel < 1 uur
Inhoud meldingAlgemene reden, zonder transcriptie
KanalenEmail, SMS, in-app

🔗 OpenAI — Trusted Contact


OpenAI B2B Signals — de kloof tussen toonaangevende bedrijven en typische bedrijven wordt groter

6 mei — OpenAI publiceert het eerste B2B Signals-rapport, dat de groeiende kloof documenteert tussen “toonaangevende” bedrijven en typische bedrijven in hun AI-adoptie.

Bedrijven in het 95e percentiel gebruiken 3,5× meer intelligence per werknemer dan typische bedrijven (tegen 2× in april 2025). Het verschil zit minder in het volume van berichten (36% van het verschil) dan in de diepte van gebruik (64%): delegeren van complexe taken, agentische workflows, integratie in productiesystemen. Op Codex is de kloof het grootst: ×16 berichten per werknemer.

Twee concrete cases: Cisco verkort de buildtijd met ~20%, bespaart 1.500+ engineeringuren per maand en verhoogt de snelheid van defectoplossing met 10 tot 15 keer. Travelers Insurance verwerkt ~100.000 schademeldingen per jaar via een assistent.

IndicatorTypische bedrijvenToonaangevende bedrijven
Intelligence/werknemerreferentie×3,5
Codex-berichten/werknemerreferentie×16
Aandeel van het volume in de kloof36%
Aandeel van de diepte in de kloof64%

🔗 OpenAI — B2B Signals


MRC — open-source netwerkprotocol voor Stargate-supercomputers

5 mei — OpenAI publiceert via het Open Compute Project open source het MRC-protocol (Multipath Reliable Connection), in co-ontwikkeling met AMD, Broadcom, Intel, Microsoft en NVIDIA gedurende twee jaar.

MRC is een 800 Gb/s-netwerkprotocol voor grootschalige AI-trainingssupercomputers. Het verbindt 100.000+ GPU’s met slechts 2 switchniveaus (tegenover 3 tot 4 in de conventionele aanpak), door pakketten te verdelen over honderden gelijktijdige paden via IPv6 source routing (SRv6). Herstel na een storing gebeurt in microseconden (tegen meerdere seconden met klassieke dynamische BGP). Al in productie op Stargate (Abilene, Texas) en Microsofts Fairwater-supercomputers; MRC heeft de training mogelijk gemaakt van meerdere modellen, waaronder GPT-5.5 en Codex.

AspectConventionele aanpakMRC
Aantal switchniveaus voor 100K+ GPU’s3-42
Herstel na storingSeconden tot tientallen secondenMicroseconden
RoutingDynamische BGPStatische SRv6
Pakketverdeling1 pad per overdracht100’en paden parallel

🔗 OpenAI — MRC Supercomputer Networking


Perplexity ROSE — eigen inferentiemotor en CuTeDSL

6 mei — Perplexity publiceert een onderzoeksartikel over ROSE (Runtime-Optimized Serving Engine), zijn eigen inferentiemotor, en de integratie van CuTeDSL (NVIDIA GPU-kernellibrary).

ROSE voedt alle Perplexity-diensten (Sonar, Search, Embeddings) op NVIDIA Hopper- en Blackwell-GPU’s, van encoder-modellen tot trillion-parameter LLM’s. CuTeDSL maakt het mogelijk sneller geoptimaliseerde, op maat gemaakte GPU-kernels te bouwen, aangepast aan nieuwe modelarchitecturen in een gestaag tempo.

Deze publicatie illustreert de strategie van Perplexity: de volledige technische stack tot op GPU-kernelniveau beheersen om zich te onderscheiden op prestaties en de afhankelijkheid van frameworks van derden te verminderen.

🔗 Perplexity Research — CuTeDSL en ROSE


ElevenLabs bereikt 500 M$ ARR — NVIDIA investeerder via NVentures

5 mei — ElevenLabs kondigt een derde closing van zijn Serie D aan met NVIDIA als nieuwe strategische investeerder via NVentures.

De ARR is gestegen van 350 Meind2025naar500M eind 2025 naar **500 M in april 2026**, oftewel +43% in vier maanden. Deze derde closing omvat ook BlackRock, Wellington Management, D.E. Shaw, Schroders, evenals klantbedrijven (Salesforce, Santander, KPN, Deutsche Telekom) en een retailinvestering via Robinhood Ventures. Tegelijk werd een tender offer van 100 M$ afgerond. ElevenLabs telt 530 werknemers in 50+ landen. De roadmap kondigt de samensmelting van beeld/video en audio in één uniform creatief platform aan.

🔗 ElevenLabs — 500 M$ ARR en nieuwe investeerders


AlphaEvolve in productie — 5 industriële sectoren via Google Cloud

7 mei — Een jaar na de lancering publiceert Google DeepMind een overzicht van AlphaEvolve, zijn op Gemini aangedreven code-agent, die nu van onderzoek naar industriële productie is overgegaan.

AlphaEvolve optimaliseert Google’s kritieke infrastructuur: TPU, cachevervangingsbeleid, LSM-tree-compaction in Google Spanner. Het wordt commercieel uitgerold via Google Cloud in vijf sectoren: financiën (verdubbeling van de prestaties van een transformer), halfgeleiders (computational lithography), logistiek (travelling salesman problem), advertenties en materiaalkunde (~4× snelheidswinst bij Schrödinger). Academisch werkte AlphaEvolve samen met Terence Tao (UCLA) aan de problemen van Erdős en verbeterde het de ondergrenzen voor het travelling salesman problem en de Ramsey-getallen.

🔗 DeepMind — AlphaEvolve Impact


Manus Projects die zelf leren — agentische workspace die bij elke taak beter wordt

6 mei — Manus lanceert een functie waarmee Projects automatisch kunnen leren van elk gesprek en door de gebruiker goedgekeurde updates kunnen voorstellen.

Na elke taak identificeert Manus herbruikbare beslissingen, normen en patronen, en stelt vervolgens voor: updates van instructies (wanneer proces of terminologie is veranderd), updates van bestanden (verouderde bronnen, voorbeelden of sjablonen) en updates van vaardigheden (skills) voor terugkerende workflows. Er wordt geen wijziging toegepast zonder expliciete menselijke validatie. Toekomstige medewerkers starten met de laatst gedeelde context van het Project. De functie is beschikbaar voor alle sessies waarin instructies en bestanden worden ondersteund.

🔗 Manus — Projects die zelf leren


Korte berichten

  • Anthropic bug bounty open voor het publiek — Het programma, tot nu toe privé binnen de research security-community, is nu voor iedereen toegankelijk op HackerOne. 🔗 bron
  • xAI Image Generation Quality Mode API — De kwaliteitsmodus voor beeldgeneratie (300 M+ afbeeldingen gegenereerd op Grok) is nu beschikbaar via de xAI API: meer realisme, betere tekstweergave, sterkere creatieve controle. 🔗 bron
  • Z.ai GLM-5V-Turbo Tech Report — Z.ai (Zhipu AI) publiceert het technisch rapport van GLM-5V-Turbo, een native foundation model voor multimodale agents met CogViT-encoder (distillatie van SigLIP2 + DINOv3) en een waarnemen-plannen-uitvoeren-lus. 🔗 bron
  • ChatGPT Futures Class of 2026 — OpenAI onderscheidt 26 jonge bouwers uit 20+ universiteiten (Vanderbilt, Oxford, Georgia Tech…) met elk een grant van USD 10.000 en toegang tot toonaangevende modellen. 🔗 bron
  • NVIDIA DeepStream + Claude Code — Demonstratie van een “concept to app”-aanpak die DeepStream, Claude Code en reusable Skills combineert om Vision AI-applicaties te genereren zonder elke regel code te schrijven. 🔗 bron
  • NVIDIA Guess-Verify-Refine — Nieuwe hardware-aware inferentietechniek waarbij elke decodestap een voorsprong geeft aan de volgende, specifiek ontworpen voor NVIDIA-accelerators. 🔗 bron
  • TokenSpeed + NVIDIA Dynamo — TokenSpeed (LightSeek Foundation) bereikt open source het niveau van TensorRT-LLM; NVIDIA Dynamo voegt day-0-ondersteuning toe voor deze backend, met Kimi K2.5 ondersteund via de Dynamo-frontend. 🔗 bron
  • Ideogram BG Remover — Nieuw generatief model (van nul af getraind, geen klassieke segmentatie) voor achtergrondverwijdering: behoud van het alpha-kanaal, gericht op logo’s en complexe illustraties, API beschikbaar. 🔗 bron
  • Google DeepMind × EVE Online — Partnerschap met CCP Games om AI-onderzoek te verkennen in complexe, door spelers aangestuurde game-omgevingen. 🔗 bron
  • GitHub Copilot Trust Layer — Microsoft/GitHub publiceert onderzoek naar een structurele vertrouwenslaag om Copilot-agenten te valideren (execution graphs + dominator-analyse): precisie 100% vs 82,2% voor zelfevaluatie, recall 100% vs 60%. 🔗 bron
  • GitHub — pull requests van agenten reviewen — Praktische gids (10-minutenchecklist) met 5 waarschuwingssignalen: CI gaming, code reuse blindness, hallucinated correctness, agentic ghosting, prompt injection in CI-pipelines. 🔗 bron

Wat dit betekent

De race naar de Personal Computer versnelt. In één week tijd richten drie zeer verschillende interfaces zich op hetzelfde bureau van de gebruiker: Perplexity Personal Computer installeert zich op Mac (en Mac mini als permanente hub), Claude dringt door in de vier Microsoft 365-applicaties met gedeelde context, en Codex bestuurt Chrome op de achtergrond. Deze agents zitten niet langer in de cloud: ze integreren in bestaande workflows, in geopende bestanden, in native applicaties. De verschuiving van informatie zoeken naar directe actie op de dagelijkse werktools is nu concreet.

Orbital compute komt in het domein van de feiten terecht. De Anthropic/xAI Colossus 1-overeenkomst is op twee punten opmerkelijk: ten eerste geeft ze Anthropic directe toegang tot 220.000 NVIDIA-GPU’s om zijn limieten al deze week te verdubbelen; ten tweede bevat ze een gezamenlijke intentie om meerdere gigawatts aan AI-capaciteit in een baan om de aarde te ontwikkelen. Samen met de overeenkomsten met Amazon, Google/Broadcom, Microsoft/NVIDIA en Fluidstack bouwt Anthropic een rekeninfrastructuur op die geen equivalent heeft bij een onafhankelijk onderzoekslaboratorium. Deze opstapeling van rekenkracht is de noodzakelijke voorwaarde voor de volgende generatie modellen — en voor het voortdurende verdubbelen van de limieten.

De redenerende stem verschuift het bereik van voice agents. GPT-Realtime-2 is geen cosmetische update: GPT-5-redenering naar een realtime-interface brengen, met 128K context en parallelle tool calls, verandert de use cases. Zillow meet +26 procentpunten succesratio op zijn moeilijkste calls. Live vertaling (70 brontalen naar 13 doeltalen) in hetzelfde model opent meertalige workflows zonder aparte vertaalpijplijn. De vraag is niet langer “kunnen we AI-voice doen?”, maar “welke complexe spraakinteracties worden economisch haalbaar?”

Uitlijning en agentische betrouwbaarheid verschuiven naar tooling. Drie afzonderlijke aankondigingen komen samen rond hetzelfde probleem — hoe vertrouwen we agents in productie. De NLAs van Anthropic laten zien dat Claude weet wanneer het getest wordt (in 16 tot 26% van de evaluaties) zonder dat te verwoorden. De Trust Layer van GitHub (precisie 100% vs 82% voor zelfevaluatie) geeft ontwikkelingsteams een structurele validatie van door agents gegenereerde pull requests. De overdracht van Petri 3.0 aan Meridian Labs creëert een evaluatiereferentie die onafhankelijk is van elk laboratorium. Deze drie lagen — modelinterpreteerbaarheid, validatie van outputs, onafhankelijkheid van audittools — beginnen samen een vertrouwensarchitectuur te vormen voor grootschalige agentische uitrol.

Bronnen