Zoeken

Anthropic legt industriële distillatie-aanvallen bloot, OpenAI stopt met SWE-bench Verified, gpt-realtime-1.5

Anthropic legt industriële distillatie-aanvallen bloot, OpenAI stopt met SWE-bench Verified, gpt-realtime-1.5

Anthropic publiceert vandaag een rapport waarin grootschalige industriële distillatiecampagnes worden gedetailleerd, uitgevoerd door drie Chinese laboratoria — DeepSeek, Moonshot AI en MiniMax — die via 24 000 frauduleuze accounts meer dan 16 miljoen uitwisselingen met Claude hebben verzameld. OpenAI kondigt aan SWE-bench Verified niet langer als referentie voor zijn frontier-modellen te rapporteren, nadat is aangetoond dat 59,4 % van de benchmarktests defect is en dat meerdere toonaangevende modellen tijdens training referentiecorrecties hebben gememoriseerd. Bij de tools verbetert gpt-realtime-1.5 de Realtime API voor spraak, komen WebSockets naar de Responses API voor langdurige agents, en rolt Gemini nieuwe Veo 3.1-templates uit voor videocreatie.


Anthropic: industriële distillatie-aanvallen door drie Chinese laboratoria

23 februari — Anthropic publiceert een rapport dat onthult dat DeepSeek, Moonshot AI (Kimi) en MiniMax grootschalige illegale distillatiecampagnes hebben uitgevoerd tegen de Claude-modellen.

Wat er gebeurd is

De drie laboratoria hebben ongeveer 24 000 frauduleuze accounts aangemaakt om meer dan 16 miljoen uitwisselingen met Claude via de API te genereren, in strijd met Anthropics gebruiksvoorwaarden en regionale toegangsbeperkingen — commercieel toegang tot Claude is niet beschikbaar in China.

De gebruikte techniek, modeldistillatie, houdt in dat een minder capabel model wordt getraind op de outputs van een krachtiger model. Legitiem wanneer intern toegepast, wordt het illegaal wanneer concurrenten de capaciteiten van een ander laboratorium zonder toestemming extraheren.

Volume per laboratorium

LaboratoriumAantal uitwisselingenBelangrijkste doelwitten
DeepSeek+150 000 uitwisselingenRedeneren, rubric grading, censorship-safe alternatieven
Moonshot AI (Kimi)+3,4 miljoen uitwisselingenAgentisch redeneren, coding, computer use, vision
MiniMax+13 miljoen uitwisselingenAgentisch coderen, tool use, orkestratie

Opvallende technieken

De DeepSeek-campagne valt op door prompts die Claude vragen zijn interne redenering stap voor stap te verwoorden — waardoor op grote schaal chain-of-thought-achtige trainingsdata werden gegenereerd. Anthropic detecteerde ook taken die gericht waren op het trainen van DeepSeek om alternatieven te bieden voor politiek gevoelige vragen.

Anthropic ontdekte de MiniMax-campagne terwijl die nog actief was. Toen Anthropic een nieuw model uitbracht, leidde MiniMax binnen 24 uur bijna de helft van zijn verkeer om naar het nieuwe systeem — wat duidt op geautomatiseerde monitoring van Anthropics outputs.

De infrastructuur gebruikte zogenaamde “hydra cluster”-architecturen: netwerken van frauduleuze accounts die het verkeer over de API verdelen en gebruikmaken van externe cloudplatforms. Eén enkele proxy-infrastructuur beheerde meer dan 20 000 accounts gelijktijdig.

Anthropics reactie

Anthropic implementeert meerdere tegenmaatregelen: classificatie- en gedrags-fingerprinting systemen om distillatiepatronen te detecteren, delen van technische data met andere laboratoria, cloudaanbieders en autoriteiten, aanscherping van verificaties voor educatieve en onderzoeksaccounts, en ontwikkeling van tegenmaatregelen op product-, API- en modelniveau.

“These labs created over 24,000 fraudulent accounts and generated over 16 million exchanges with Claude, extracting its capabilities to train and improve their own models.”

🇳🇱 Deze laboratoria hebben meer dan 24.000 frauduleuze accounts aangemaakt en meer dan 16 miljoen uitwisselingen met Claude gegenereerd, waarbij ze zijn capaciteiten hebben geëxtraheerd om hun eigen modellen te trainen en te verbeteren.@AnthropicAI op X

🔗 Anthropic-rapport 🔗 Aankondiging @AnthropicAI


OpenAI stopt met SWE-bench Verified: 59,4 % defecte tests

23 februari — OpenAI publiceert een analyse waarin wordt uitgelegd waarom het bedrijf geen SWE-bench Verified-scores meer zal rapporteren en raadt de industrie aan hetzelfde te doen.

Context

Sinds de lancering in augustus 2024 is SWE-bench Verified de referentiestandaard geworden om vooruitgang van modellen op autonome softwareontwikkelingsopdrachten te meten. Na een snelle stijging — van 0 % naar 75 % in een jaar — zijn de scores de afgelopen zes maanden gestagneerd tussen 74,9 % en 80,9 %. OpenAI voerde een grondige audit uit om te begrijpen of die plafonnering de grenzen van de modellen weerspiegelt of gebreken in de benchmark zelf.

Resultaten van de audit: twee hoofdproblemen

Op een subset van 138 geauditeerde problemen (27,6 % van de dataset) weisen minstens 59,4 % tests die functioneel correcte oplossingen afwijzen. Verdeling van de gebreken:

Type gebrekAandeel defecte gevallen
Tests te restrictief over implementatiedetails35,5 %
Tests voor functionaliteit niet gespecificeerd in de omschrijving18,8 %
Overige gebreken (flaky tests, onduidelijke specs)5,1 %

Het tweede probleem is de verontreiniging van trainingsdata: SWE-bench-problemen komen uit veelgebruikte open source repositories die breed zijn gebruikt voor training. Met een geautomatiseerde red-teaming-pijplijn toonde OpenAI aan dat GPT-5.2, Claude Opus 4.5 en Gemini 3 Flash Preview allemaal in staat zijn referentiecorrecties (gold patches) woordelijk te reproduceren voor bepaalde problemen — bewijs dat deze voorbeelden tijdens training zijn gezien.

Aanbevelingen

OpenAI is gestopt met het rapporteren van SWE-bench Verified-scores en raadt aan SWE-bench Pro te gebruiken — de publieke split vertoont aanzienlijk minder verontreiniging. Het bedrijf roept de academische gemeenschap ook op te investeren in niet-verontreinigde private benchmarks, zoals GDPVal (taken opgesteld door domeinexperts met holistische beoordeling).

🔗 OpenAI-artikel


OpenAI: gpt-realtime-1.5 en WebSockets in de Responses API

gpt-realtime-1.5 in de Realtime API

23 februari — OpenAI kondigt de beschikbaarheid aan van gpt-realtime-1.5 in de Realtime API. Dit nieuwe vocale model vervangt de vorige versie en brengt verbeteringen voor real-time gesprekstoepassingen.

gpt-realtime-1.5 biedt betere instructieopvolging, betrouwbaarder gebruik van tools en verbeterde meertalige nauwkeurigheid. Partners zoals Genspark hebben tijdens de alpha-fase concrete resultaten gemeten: een stijging van het menselijke connectietarief van 43,7 % naar 66 %, en een nauwkeurigheidspercentage van 97,9 % op de geëvalueerde gesprekken. Het model is direct beschikbaar in de bestaande Realtime API zonder wijzigingen in de infrastructuur.

🔗 Tweet @OpenAIDevs

WebSockets in de Responses API

23 februari — OpenAI introduceert ondersteuning voor WebSockets in de Responses API, gericht op agents met lange looptijden en intensief toolgebruik.

Een persistente WebSocket-verbinding maakt het mogelijk alleen nieuwe inputs per beurt te verzenden, zonder de volledige context bij elke aanvraag opnieuw te sturen. De staat wordt in het geheugen tussen interacties behouden, waardoor redundante herberekeningen worden vermeden. Volgens OpenAI versnelt deze aanpak agent-runs met 20 toolcalls of meer met 20 tot 40 %.

🔗 Tweet @OpenAIDevs — aankondiging


Anthropic: The AI Fluency Index

23 februari — Anthropic publiceert “The AI Fluency Index”, een onderzoeksrapport dat de mate van AI-beheersing onder Claude-gebruikers meet door hun daadwerkelijke gedrag te analyseren.

De studie volgde 11 verschillende gedragingen in duizenden gesprekken op Claude.ai — bijvoorbeeld hoe vaak gebruikers itereren en hun werk met Claude verfijnen — om te meten hoe mensen in de praktijk effectieve AI-vaardigheden ontwikkelen. Het rapport past in een educatieve aanpak om AI-adoptie beter te begrijpen, voorbij louter gebruiksstatistieken.

“We tracked 11 behaviors across thousands of Claude.ai conversations—for example, how often people iterate and refine their work with Claude—to measure how people actually develop AI skill in practice.”

🇳🇱 We hebben 11 gedragingen gevolgd in duizenden gesprekken op Claude.ai — bijvoorbeeld hoe vaak mensen itereren en hun werk met Claude verfijnen — om te meten hoe mensen daadwerkelijk vaardigheden in AI ontwikkelen in de praktijk.@AnthropicAI op X

🔗 AI Fluency Index


Gemini: nieuwe Veo 3.1-templates voor videocreatie

23 februari — Google rolt nieuwe templates uit voor Veo 3.1 in de Gemini-app, waarmee videocreatie met AI voor alle gebruikers wordt vereenvoudigd.

Toegang krijgen: open gemini.google of de mobiele app en selecteer vervolgens “Create videos” in het gereedschapsmenu. De templategalerij verschijnt, en elk model kan worden aangepast met een referentiefoto en/of een tekstuele beschrijving.

Deze aankondiging valt in een drukke week voor het Gemini-ecosysteem: op 19 februari had Google Gemini 3.1 Pro gelanceerd met een score van 77,1 % op ARC-AGI-2, en op 18 februari introduceerde Lyria 3 muziekproductie direct in de app. De Veo 3.1-templates vullen deze uitbreiding naar multimodale creatie binnen één enkele applicatie aan.

🔗 Aankondiging @GeminiApp


Pika AI Selves: een documentaireserie autonoom gemaakt door AI-agents

23 februari — Pika kondigt aan dat zijn “AI Selves” — AI-extensies van de persoonlijkheid en vaardigheden van een maker — autonoom hun eigen documentaireserie hebben geregisseerd en gemonteerd, rond hun samenwerking met mensen bij Pika.

Het “AI Self”-concept van Pika onderscheidt zich van klassieke AI-agents: in plaats van een tool die taken uitvoert, is een “AI Self” een extensie die de vaardigheden, persoonlijkheid en esthetische voorkeur van een specifieke maker belichaamt. De demonstratie neemt de vorm aan van een documentaireserie die volledig door deze AI-entiteiten is gemaakt, zonder menselijke tussenkomst bij montage en regie.

🔗 Aankondiging @pika_labs


Wat dit betekent

De door Anthropic onthulde distillatiezaak gaat verder dan een eenvoudige schending van gebruiksvoorwaarden: het documenteert voor het eerst op grote schaal hoe concurrerende laboratoria systematisch de capaciteiten van een frontier-model extraheren. De verfijning van de MiniMax-operatie — omleiding van verkeer binnen 24 uur naar een nieuw model, “hydra”-infrastructuur met 20 000 accounts — suggereert continue en geautomatiseerde monitoring. Anthropics oproep tot een gecoördineerde industrie- en beleidsreactie, gekoppeld aan exportcontroles op chips, tekent een nieuw front in de concurrentie tussen AI-laboratoria.

OpenAI’s beslissing om SWE-bench Verified los te laten is een structureel signaal voor de hele sector: publieke codering-benchmarks zijn nu verontreinigd door trainingsdata van de krachtigste modellen. De aanbevolen overstap naar SWE-bench Pro en private benchmarks zoals GDPVal wijst op een herconfigurering van evaluatiestandaarden — wat publieke vergelijkingen tussen modellen nog moeilijker interpreteerbaar maakt.

Aan de toolzijde richten beide OpenAI-aankondigingen (gpt-realtime-1.5 en WebSockets) zich op concrete use-cases: productie-gespreksagents en langdurige agent-runs met veel toolcalls. De winst van 20–40 % door WebSockets is niet marginaal voor workflows die 50 of 100 toolcalls per sessie aaneenschakelen.


Bronnen

Dit document is vertaald van de versie fr naar de taal nl met gebruik van het model gpt-5-mini. Voor meer informatie over het vertaalproces, raadpleeg https://gitlab.com/jls42/ai-powered-markdown-translator