Sök

Anthropic avslöjar industriella destilleringsattacker, OpenAI överger SWE-bench Verified, gpt-realtime-1.5

Anthropic avslöjar industriella destilleringsattacker, OpenAI överger SWE-bench Verified, gpt-realtime-1.5

Anthropic publicerar idag en rapport som beskriver omfattande industriella destilleringskampanjer utförda av tre kinesiska labb — DeepSeek, Moonshot AI och MiniMax — som samlade in över 16 miljoner utbyten med Claude via 24 000 falska konton. OpenAI meddelar å sin sida att de överger SWE-bench Verified som referens för sina frontier-modeller, efter att ha visat att 59,4 % av benchmark-testen är defekta och att flera toppmodeller har memorerat referenskorrigeringarna under träningen. På verktygssidan förbättrar gpt-realtime-1.5 Realtime API:s röstfunktioner, WebSockets kommer till Responses API för långlivade agenter, och Gemini rullar ut nya Veo 3.1-mallar för videoproduktion.


Anthropic: industriella destilleringsattacker från tre kinesiska labb

23 februari — Anthropic publicerar en rapport som avslöjar att DeepSeek, Moonshot AI (Kimi) och MiniMax genomfört storskaliga olagliga destilleringskampanjer mot Claude-modellerna.

Vad som hände

De tre labben skapade omkring 24 000 falska konton för att generera över 16 miljoner utbyten med Claude via API:en, i strid med Anthropics användarvillkor och regionala åtkomstbegränsningar — Kina har ingen kommersiell åtkomst till Claude.

Den använda tekniken, modell­destillering, går ut på att träna en svagare modell på utsignalerna från en mer kapabel modell. Lagligt när det används internt, blir det olagligt när konkurrenter extraherar en annan labs kapaciteter utan tillstånd.

Volym per labb

LabVolym utbytenHuvudsakliga mål
DeepSeek+150 000 utbytenResonerande, bedömning via rubric, alternativa censorship-safe lösningar
Moonshot AI (Kimi)+3,4 miljoner utbytenAgentiskt resonerande, kodning, datoranvändning, vision
MiniMax+13 miljoner utbytenAgentisk kodning, verktygsanvändning, orkestrering

Noterbara tekniker

DeepSeek-kampanjen utmärker sig genom prompts som bad Claude att artikulera sitt interna resonerande steg för steg — vilket genererade träningsdata av typen chain-of-thought i stor skala. Anthropic upptäckte också uppgifter som syftade till att träna DeepSeek att föreslå alternativ för politiskt känsliga frågor.

Anthropic upptäckte MiniMax-kampanjen medan den fortfarande var aktiv. När Anthropic släppte en ny modell omdirigerade MiniMax inom 24 timmar nästan hälften av sin trafik till det nya systemet — vilket visar på automatisk övervakning av Anthropics utsignaler.

Den använda infrastrukturen bygger på så kallade “hydra cluster”-arkitekturer: nätverk av falska konton som distribuerar trafiken till API:en och tredjeparts molnplattformar. Ett enda proxy-nätverk hanterade mer än 20 000 konton samtidigt.

Anthropics svar

Anthropic inför flera motåtgärder: klassificerare och beteendefingeravtryckssystem för att upptäcka destilleringsmönster, delning av tekniska data med andra labb, molnleverantörer och myndigheter, skärpta verifieringar för utbildnings- och forskningskonton samt utveckling av motåtgärder på produkt-, API- och modellnivå.

“These labs created over 24,000 fraudulent accounts and generated over 16 million exchanges with Claude, extracting its capabilities to train and improve their own models.”

🇸🇪 Dessa laboratorier skapade över 24 000 falska konton och genererade mer än 16 miljoner utbyten med Claude, vilket extraherade dess förmågor för att träna och förbättra sina egna modeller.@AnthropicAI på X

🔗 Anthropic-rapporten 🔗 Tillkännagivande @AnthropicAI


OpenAI överger SWE-bench Verified: 59,4 % defekta tester

23 februari — OpenAI publicerar en analys som förklarar varför företaget inte längre kommer rapportera SWE-bench Verified-poäng och rekommenderar branschen att göra detsamma.

Bakgrund

Sedan lanseringen i augusti 2024 har SWE-bench Verified blivit standardreferensen för att mäta framsteg i modeller för autonom mjukvaruutveckling. Efter en snabb framgång — från 0 % till 75 % på ett år — har poängen stagnerat mellan 74,9 % och 80,9 % under de senaste sex månaderna. OpenAI genomförde en djupgående revision för att förstå om denna platå speglar modellernas begränsningar eller brister i benchmarken själv.

Resultat av revisionen: två huvudproblem

På ett delset om 138 granskade problem (27,6 % av datasetet) visar sig minst 59,4 % ha tester som avvisar funktionellt korrekta lösningar. Fördelning av felen:

Typ av felAndel defekta fall
Tester för restriktiva kring implementationsdetaljer35,5 %
Tester för funktioner som inte specificerats i uppgiften18,8 %
Andra fel (flaky tests, otydliga specs)5,1 %

Det andra problemet är kontamination av träningsdata: SWE-bench-problemen kommer från öppna källkodsrepo som ofta används i träningen. Genom en automatiserad red-teaming-pipeline visade OpenAI att GPT-5.2, Claude Opus 4.5 och Gemini 3 Flash Preview alla kan reproducera referenskorrigeringarna (gold patches) verbatim för vissa problem — bevis på att dessa exempel setts under träningen.

Rekommendationer

OpenAI har slutat rapportera SWE-bench Verified-poäng och rekommenderar att man istället använder SWE-bench Pro — dess publika split visar signifikant mindre kontamination. Företaget uppmanar även den akademiska gemenskapen att investera i privata, ocontaminerade benchmarks, som GDPVal (uppgifter skrivna av domänexperter med holistisk betygsättning).

🔗 OpenAI-artikeln


OpenAI: gpt-realtime-1.5 och WebSockets i Responses API

gpt-realtime-1.5 i Realtime API

23 februari — OpenAI meddelar tillgängligheten av gpt-realtime-1.5 i Realtime API. Denna nya röstmodell ersätter den tidigare versionen och ger förbättringar för konversationsapplikationer i realtid.

gpt-realtime-1.5 erbjuder bättre följning av instruktioner, mer pålitlig verktygsanvändning och bättre flerspråkig precision. Partner som Genspark mätte konkreta resultat under alpha-fasen: en ökning av människliga kontaktfrekvensen från 43,7 % till 66 %, och en precision på 97,9 % i de utvärderade konversationerna. Modellen finns tillgänglig direkt i den befintliga Realtime API utan infrastrukturella förändringar.

🔗 Tweet @OpenAIDevs

WebSockets i Responses API

23 februari — OpenAI introducerar stöd för WebSockets i Responses API, avsett för långlivade agenter med intensiva verktygsanrop.

En bestående WebSocket-anslutning gör det möjligt att bara skicka nya inputs varje varv, utan att återuppskicka hela kontexten vid varje begäran. Tillståndet bevaras i minnet mellan interaktioner, vilket undviker redundanta omberäkningar. Enligt OpenAI snabbar detta upp agentkörningar som innehåller 20 eller fler verktygsanrop med 20 till 40 %.

🔗 Tweet @OpenAIDevs — tillkännagivande


Anthropic: The AI Fluency Index

23 februari — Anthropic publicerar “The AI Fluency Index”, en forskningsrapport som mäter AI-färdighet bland Claude-användare genom att analysera deras verkliga beteenden.

Studien följde 11 distinkta beteenden i tusentals konversationer på Claude.ai — till exempel hur ofta användare itererar och förfinar sitt arbete med Claude — för att mäta hur människor utvecklar effektiv AI-kompetens i praktiken. Rapporten syftar till utbildning och förståelse för AI-antagandet bortom enkla användarmått.

“We tracked 11 behaviors across thousands of Claude.ai conversations—for example, how often people iterate and refine their work with Claude—to measure how people actually develop AI skill in practice.”

🇸🇪 Vi följde 11 beteenden i tusentals konversationer på Claude.ai — till exempel hur ofta människor itererar och förfinar sitt arbete med Claude — för att mäta hur människor faktiskt utvecklar verklig kompetens i AI i praktiken.@AnthropicAI på X

🔗 AI Fluency Index


Gemini: nya Veo 3.1-mallar för videoproduktion

23 februari — Google rullar ut nya mallar för Veo 3.1 i Gemini-appen, vilket förenklar AI-driven videoproduktion för alla användare.

För att få åtkomst: öppna gemini.google eller mobilappen och välj sedan “Create videos” i verktygsmenyn. Mallgalleriet visas och varje mall kan anpassas med ett referensfoto och/eller en beskrivande text.

Detta tillkännagivande kommer under en intensiv vecka för Gemini-ekosystemet: den 19 februari lanserade Google Gemini 3.1 Pro med ett resultat på 77,1 % på ARC-AGI-2, och den 18 februari introducerade Lyria 3 musikgenerering direkt i appen. Veo 3.1-mallarna kompletterar denna expansion mot multimodal skapande inom en enda app.

🔗 Tillkännagivande @GeminiApp


Pika AI Selves: en dokumentärserie autonomt skapad av AI-agenter

23 februari — Pika meddelar att deras “AI Selves” — AI-förlängningar av en kreatörs personlighet och färdigheter — autonomt regisserat och redigerat en egen dokumentärserie om deras samarbete med människor på Pika.

Pikas “AI Self”-koncept skiljer sig från klassiska AI-agenter: snarare än ett verktyg som utför uppgifter är en “AI Self” en förlängning som inkorporerar färdigheter, personlighet och estetisk smak hos en specifik skapare. Demonstrationen tar formen av en dokumentärserie helt producerad av dessa AI-entiteter, utan mänsklig inblandning i klippning och regi.

🔗 Tillkännagivande @pika_labs


Vad det betyder

Anthropics avslöjade destilleringsfall går bortom en enkel överträdelse av användarvillkor: det dokumenterar för första gången i stor skala hur konkurrerande labb systematiskt extraherar kapaciteter från en frontier-modell. MiniMaxs operationens sofistikering — omdirigering av trafik inom 24 timmar till en ny modell, “hydra”-infrastruktur med 20 000 konton — tyder på kontinuerlig och automatiserad övervakning. Anthropics uppmaning till ett koordinerat industrisvar och politiska åtgärder, i kombination med exportkontroller av chip, målar upp ett nytt front i konkurrensen mellan AI-labb.

OpenAIs beslut att överge SWE-bench Verified är en strukturell signal för hela branschen: publika kodningsbenchmarks är nu kontaminerade av träningsdata från de mest kapabla modellerna. Rekommendationen att gå över till SWE-bench Pro och privata benchmarks som GDPVal innebär en omkonfiguration av utvärderingsstandarder — vilket gör offentliga jämförelser mellan modeller ännu svårare att tolka.

På verktygssidan riktar sig OpenAIs två tillkännagivanden (gpt-realtime-1.5 och WebSockets) mot konkreta användningsfall: röstagenter i produktion och långa agentkörningar med många verktygsanrop. Den angivna vinsten på 20–40 % med WebSockets är inte marginell för arbetsflöden som kedjar ihop 50 eller 100 verktygsanrop per session.


Källor

Detta dokument har översatts från fr-versionen till språket sv med modellen gpt-5-mini. För mer information om översättningsprocessen, se https://gitlab.com/jls42/ai-powered-markdown-translator