Anthropic opublikował dzisiaj raport szczegółowo opisujący kampanie przemysłowej destylacji przeprowadzone przez trzy chińskie laboratoria — DeepSeek, Moonshot AI i MiniMax — które zebrały ponad 16 milionów wymian z Claude za pośrednictwem 24 000 fałszywych kont. OpenAI ogłasza z kolei rezygnację ze SWE-bench Verified jako punktu odniesienia dla swoich najbardziej zaawansowanych modeli, po wykazaniu, że 59,4% testów benchmarku jest wadliwych i że kilka modeli czołowych zapamiętało poprawki referencyjne podczas treningu. W obszarze narzędzi gpt-realtime-1.5 usprawnia Realtime API głosowe, WebSockets trafiają do Responses API dla agentów długotrwałych, a Gemini wdraża nowe szablony Veo 3.1 do tworzenia wideo.
Anthropic: ataki przemysłowej destylacji przeprowadzone przez trzy chińskie laboratoria
23 lutego — Anthropic opublikował raport ujawniający, że DeepSeek, Moonshot AI (Kimi) i MiniMax przeprowadziły masowe, nielegalne kampanie destylacyjne wymierzone w modele Claude.
Co się stało
Trzy laboratoria stworzyły około 24 000 fałszywych kont, aby wygenerować ponad 16 milionów wymian z Claude za pośrednictwem API, naruszając warunki użytkowania Anthropic oraz regionalne ograniczenia dostępu — Chiny nie mają komercyjnego dostępu do Claude.
Technika stosowana, czyli destylacja modelu, polega na trenowaniu słabszego modelu na wyjściach modelu bardziej zaawansowanego. Jest to legalne przy wykorzystaniu wewnętrznym, lecz staje się nielegalne, gdy konkurenci bez zgody wydobywają zdolności innego laboratorium.
Wolumen według laboratorium
| Laboratorium | Liczba wymian | Główne cele |
|---|---|---|
| DeepSeek | +150 000 wymian | Rozumowanie, ocenianie zgodne z rubricą, alternatywy bez cenzury |
| Moonshot AI (Kimi) | +3,4 miliona wymian | Rozumowanie agentowe, kodowanie, użycie komputera, wizja |
| MiniMax | +13 milionów wymian | Kodowanie agentowe, użycie narzędzi, orkiestracja |
Zauważalne techniki
Kampania DeepSeek wyróżniała się promptami proszącymi Claude o artykulację jego wewnętrznego rozumowania krok po kroku — generując w ten sposób duże ilości danych treningowych typu chain-of-thought. Anthropic wykrył też zadania mające na celu nauczenie DeepSeek proponowania alternatyw w odpowiedziach na pytania politycznie wrażliwe.
Anthropic wykrył kampanię MiniMax, gdy była ona jeszcze aktywna. Gdy Anthropic wypuścił nowy model, MiniMax w ciągu 24 godzin przekierował niemal połowę swojego ruchu do nowego systemu — co wskazuje na zautomatyzowane monitorowanie wyjść Anthropic.
Infrastruktura użyta w operacji opierała się na architekturach „hydra cluster”: sieciach fałszywych kont rozdzielających ruch na API i zewnętrznych platformach chmurowych. Jeden tylko sieciowy proxy obsługiwał ponad 20 000 kont jednocześnie.
Odpowiedź Anthropic
Anthropic wprowadza kilka środków zaradczych: klasyfikatory i systemy fingerprintingu behawioralnego do wykrywania wzorców destylacji, udostępnianie danych technicznych innym laboratoriom, dostawcom chmury i organom, zaostrzenie weryfikacji kont edukacyjnych i badawczych oraz rozwój środków zaradczych na poziomie produktu, API i modelu.
“These labs created over 24,000 fraudulent accounts and generated over 16 million exchanges with Claude, extracting its capabilities to train and improve their own models.”
🇵🇱 Te laboratoria utworzyły ponad 24 000 fałszywych kont i wygenerowały ponad 16 milionów wymian z Claude, wydobywając jego możliwości, aby trenować i ulepszać własne modele. — @AnthropicAI na X
🔗 Raport Anthropic 🔗 Ogłoszenie @AnthropicAI
OpenAI porzuca SWE-bench Verified: 59,4% wadliwych testów
23 lutego — OpenAI publikuje analizę wyjaśniającą, dlaczego firma zaprzestała raportowania wyników SWE-bench Verified i zaleca, by branża postąpiła podobnie.
Kontekst
Od powstania w sierpniu 2024 roku SWE-bench Verified stał się standardem odniesienia do mierzenia postępów modeli w zadaniach automatycznego programowania. Po gwałtownym wzroście — od 0% do 75% w rok — wyniki utkwiły między 74,9% a 80,9% w ciągu ostatnich sześciu miesięcy. OpenAI przeprowadziło dogłębny audyt, aby ustalić, czy to plafonowanie odzwierciedla ograniczenia modeli, czy wady samego benchmarku.
Wyniki audytu: dwa główne problemy
Na podzbiorze 138 sprawdzonych problemów (27,6% zbioru danych) co najmniej 59,4% zawiera testy, które odrzucają funkcjonalnie poprawne rozwiązania. Rozkład wad:
| Rodzaj usterki | Udział przypadków wadliwych |
|---|---|
| Testy zbyt restrykcyjne co do szczegółów implementacji | 35,5 % |
| Testy dotyczące funkcji nieokreślonych w treści zadania | 18,8 % |
| Inne usterki (niestabilne testy, niejednoznaczne specyfikacje) | 5,1 % |
Drugim problemem jest zanieczyszczenie danych treningowych: zadania SWE-bench pochodzą z repozytoriów open source powszechnie wykorzystywanych do trenowania modeli. Poprzez zautomatyzowany pipeline red-teamingowy OpenAI wykazało, że GPT-5.2, Claude Opus 4.5 i Gemini 3 Flash Preview potrafią odtworzyć słowo w słowo poprawki referencyjne (gold patches) dla niektórych zadań — co jest dowodem, że przykłady te były widziane podczas treningu.
Zalecenia
OpenAI przestało raportować wyniki SWE-bench Verified i rekomenduje użycie SWE-bench Pro — jego publiczny split wykazuje znacząco mniej zanieczyszczenia. Firma wzywa także środowisko akademickie do inwestycji w prywatne, niezanieczyszczone benchmarki, takie jak GDPVal (zadania tworzone przez ekspertów dziedzinowych z holistyczną oceną).
OpenAI: gpt-realtime-1.5 i WebSockets w Responses API
gpt-realtime-1.5 w Realtime API
23 lutego — OpenAI ogłasza dostępność gpt-realtime-1.5 w Realtime API. Ten nowy model głosowy zastępuje poprzednią wersję i wprowadza ulepszenia dla aplikacji konwersacyjnych w czasie rzeczywistym.
gpt-realtime-1.5 zapewnia lepsze śledzenie instrukcji, bardziej niezawodne użycie narzędzi oraz lepszą dokładność wielojęzyczną. Partnerzy tacy jak Genspark odnotowali konkretne rezultaty w fazie alfa: wzrost wskaźnika łączności z człowiekiem z 43,7% do 66% oraz dokładność 97,9% w ocenianych rozmowach. Model jest dostępny bezpośrednio w istniejącej Realtime API bez potrzeby zmiany infrastruktury.
WebSockets w Responses API
23 lutego — OpenAI wprowadza obsługę WebSockets w Responses API, przeznaczoną dla agentów długotrwałego działania z intensywnymi wywołaniami narzędzi.
Utrzymywane połączenie WebSocket pozwala wysyłać tylko nowe dane wejściowe przy każdej turze, bez retransmisji całego kontekstu przy każdym żądaniu. Stan jest utrzymywany w pamięci między interakcjami, co eliminuje redundantne przeliczenia. Według OpenAI takie podejście przyspiesza sesje agentowe zawierające 20 lub więcej wywołań narzędzi o 20 do 40%.
🔗 Tweet @OpenAIDevs — ogłoszenie
Anthropic: The AI Fluency Index
23 lutego — Anthropic publikuje “The AI Fluency Index”, raport badawczy mierzący biegłość w AI wśród użytkowników Claude poprzez analizę ich rzeczywistych zachowań.
Badanie śledziło 11 odrębnych zachowań w tysiącach rozmów na Claude.ai — na przykład częstotliwość, z jaką użytkownicy iterują i dopracowują swoją pracę z Claude — aby zmierzyć, jak ludzie w praktyce rozwijają rzeczywiste umiejętności pracy z AI. Raport wpisuje się w działania edukacyjne i zrozumienia adopcji AI, wykraczając poza proste metryki użycia.
“We tracked 11 behaviors across thousands of Claude.ai conversations—for example, how often people iterate and refine their work with Claude—to measure how people actually develop AI skill in practice.”
🇵🇱 Śledziliśmy 11 zachowań w tysiącach rozmów na Claude.ai — na przykład częstotliwość, z jaką ludzie iterują i dopracowują swoją pracę z Claude — aby zmierzyć, jak ludzie rzeczywiście rozwijają umiejętność pracy z AI w praktyce. — @AnthropicAI na X
Gemini: nowe szablony Veo 3.1 do tworzenia wideo
23 lutego — Google wdraża nowe szablony dla Veo 3.1 w aplikacji Gemini, upraszczając tworzenie wideo przy użyciu AI dla wszystkich użytkowników.
Aby uzyskać do nich dostęp: otwórz gemini.google lub aplikację mobilną, a następnie wybierz “Utwórz wideo” w menu narzędzi. Galeria szablonów się pojawi i każdy model można spersonalizować zdjęciem referencyjnym i/lub opisem tekstowym.
To ogłoszenie wpisuje się w intensywny tydzień dla ekosystemu Gemini: 19 lutego Google wypuściło Gemini 3.1 Pro z wynikiem 77,1% w ARC-AGI-2, a 18 lutego Lyria 3 wprowadziła generowanie muzyki bezpośrednio w aplikacji. Szablony Veo 3.1 dopełniają tę ekspansję w kierunku tworzenia multimodalnego w ramach jednej aplikacji.
Pika AI Selves: serial dokumentalny stworzony autonomicznie przez agentów AI
23 lutego — Pika ogłasza, że jej “AI Selves” — rozszerzenia AI osobowości i kompetencji twórcy — samodzielnie wyreżyserowały i zmontowały swój własny serial dokumentalny, opowiadający o ich współpracy z ludźmi w Pika.
Koncepcja “AI Self” Pika różni się od klasycznych agentów AI: zamiast być tylko narzędziem wykonującym zadania, “AI Self” jest rozszerzeniem obejmującym umiejętności, osobowość i gust estetyczny konkretnego twórcy. Demonstracja przybiera formę serialu dokumentalnego w pełni stworzonego przez te byty AI, bez ingerencji człowieka w montaż i reżyserię.
Co to oznacza
Sprawa destylacji ujawniona przez Anthropic wykracza poza zwykłe złamanie warunków użytkowania: dokumentuje po raz pierwszy na dużą skalę, jak konkurencyjne laboratoria systematycznie wydobywają zdolności modelu frontier. Złożoność operacji MiniMax — przekierowanie ruchu w 24 godziny na nowy model, infrastruktura “hydra” z 20 000 kont — sugeruje ciągły, zautomatyzowany monitoring. Apel Anthropic o skoordynowaną odpowiedź branży i decydentów, powiązany z kontrolami eksportowymi chipów, kreuje nowy front w rywalizacji między laboratoriami AI.
Decyzja OpenAI o porzuceniu SWE-bench Verified jest sygnałem strukturalnym dla całej branży: publiczne benchmarki do kodowania są teraz zanieczyszczone danymi treningowymi najlepszych modeli. Zalecany przejście na SWE-bench Pro i prywatne benchmarki jak GDPVal zapowiada rekonfigurację standardów ewaluacji — co utrudnia interpretację publicznych porównań między modelami.
W obszarze narzędzi obie zapowiedzi OpenAI (gpt-realtime-1.5 i WebSockets) dotyczą konkretnych przypadków użycia: agentów głosowych w produkcji oraz długotrwałych sesji agentowych z wieloma wywołaniami narzędzi. Zysk 20–40% dzięki WebSockets nie jest marginalny dla workflowów wykonujących 50–100 wywołań narzędzi w jednej sesji.
Źródła
- Raport Anthropic — Detecting and Preventing Distillation Attacks
- Ogłoszenie @AnthropicAI — distillation
- OpenAI — Why We No Longer Evaluate SWE-bench Verified
- Ogłoszenie @OpenAIDevs — gpt-realtime-1.5
- Ogłoszenie @OpenAIDevs — WebSockets Responses API
- Anthropic — AI Fluency Index
- Ogłoszenie @AnthropicAI — AI Fluency Index
- Ogłoszenie @GeminiApp — templates Veo 3.1
- Ogłoszenie @pika_labs — AI Selves
Ten dokument został przetłumaczony z wersji fr na język pl przy użyciu modelu gpt-5-mini. Aby uzyskać więcej informacji na temat procesu tłumaczenia, zobacz https://gitlab.com/jls42/ai-powered-markdown-translator