Anthropic publică astăzi un raport care detaliază campanii de distilare industrială conduse de trei laboratoare din China — DeepSeek, Moonshot AI și MiniMax — care au colectat peste 16 milioane de schimburi cu Claude prin 24 000 de conturi frauduloase. OpenAI anunță, la rândul său, renunțarea la SWE-bench Verified ca referință pentru modelele sale frontier, după ce a demonstrat că 59,4 % dintre testele benchmark-ului sunt defectuoase și că mai multe modele de vârf au memorat corecțiile de referință în timpul antrenamentului. În planul instrumentelor, gpt-realtime-1.5 îmbunătățește Realtime API vocală, WebSockets ajung în Responses API pentru agenți cu durată lungă, iar Gemini lansează noi template-uri Veo 3.1 pentru creație video.
Anthropic: atacuri de distilare industrială de către trei laboratoare chineze
23 februarie — Anthropic publică un raport care dezvăluie că DeepSeek, Moonshot AI (Kimi) și MiniMax au condus campanii de distilare ilicită la scară largă împotriva modelelor Claude.
Ce s-a întâmplat
Cele trei laboratoare au creat aproximativ 24 000 de conturi frauduloase pentru a genera peste 16 milioane de schimburi cu Claude prin API, încălcând condițiile de utilizare ale Anthropic și restricțiile de acces regionale — China nu are acces comercial la Claude.
Tehnica folosită, distilarea de model, constă în antrenarea unui model mai slab pe ieșirile unui model mai capabil. Legitmul când este folosit intern, devine ilicit când concurenții extrag capacitățile unui alt laborator fără autorizație.
Volum pe laborator
| Lab | Volume d’échanges | Cibles principales |
|---|---|---|
| DeepSeek | +150 000 échanges | Raisonnement, grading de rubrique, alternatives censorship-safe |
| Moonshot AI (Kimi) | +3,4 millions d’échanges | Raisonnement agentique, coding, computer use, vision |
| MiniMax | +13 millions d’échanges | Coding agentique, tool use, orchestration |
(Notă: am păstrat denumirile coloanelor și conținutul tabelului neschimbate acolo unde sunt termeni tehnici sau denumiri specifice.)
Techniques notables
Campania DeepSeek se distinge prin prompturi care cer lui Claude să-și articuleze raționamentul intern pas cu pas — generând astfel date de antrenament de tip chain-of-thought la scară largă. Anthropic a detectat, de asemenea, sarcini care urmăreau antrenarea DeepSeek să propună alternative la întrebări politic sensibile.
Anthropic a detectat campania MiniMax în timp ce era încă activă. Când Anthropic a lansat un model nou, MiniMax a redirecționat în 24 de ore aproape jumătate din traficul său către noul sistem — ceea ce demonstrează o monitorizare automatizată a ieșirilor Anthropic.
Infrastructura folosită se bazează pe arhitecturi “hydra cluster”: rețele de conturi frauduloase care distribuie traficul pe API și platforme cloud terțe. Un singur network proxy gestiona peste 20 000 de conturi simultan.
Răspunsul Anthropic
Anthropic pune în aplicare mai multe contra-măsuri: clasificatoare și sisteme de fingerprinting comportamental pentru a detecta pattern-urile de distilare, partajare de date tehnice cu alte laboratoare, furnizori cloud și autorități, consolidarea verificărilor pentru conturile educaționale și de cercetare, și dezvoltarea de contra-măsuri la nivel de produs, API și model.
“These labs created over 24,000 fraudulent accounts and generated over 16 million exchanges with Claude, extracting its capabilities to train and improve their own models.”
🇷🇴 Aceste laboratoare au creat peste 24 000 de conturi frauduloase și au generat peste 16 milioane de schimburi cu Claude, extrăgându-i capabilitățile pentru a antrena și îmbunătăți propriile lor modele. — @AnthropicAI pe X
🔗 Raport Anthropic 🔗 Anunț @AnthropicAI
OpenAI renunță la SWE-bench Verified: 59,4 % din teste defectuoase
23 februarie — OpenAI publică o analiză în care explică de ce compania nu va mai raporta scoruri SWE-bench Verified și recomandă industriei să procedeze la fel.
Context
Din momentul lansării sale în august 2024, SWE-bench Verified a devenit standardul de referință pentru a măsura progresul modelelor pe sarcini de dezvoltare software autonomă. După o creștere rapidă — de la 0 % la 75 % într-un an — scorurile stagnează între 74,9 % și 80,9 % în ultimele șase luni. OpenAI a realizat un audit aprofundat pentru a înțelege dacă acest plafon reflectă limitele modelelor sau defecte ale benchmark-ului în sine.
Rezultatele auditului: două probleme majore
Pe un subset de 138 de probleme auditate (27,6 % din dataset), cel puțin 59,4 % prezintă teste care resping soluții funcțional corecte. Distribuția defectelor:
| Tip de defect | Ponderea cazurilor defectuoase |
|---|---|
| Teste prea restrictive privind detaliile de implementare | 35,5 % |
| Teste pentru funcționalități nespecificate în enunț | 18,8 % |
| Alte defecte (teste flaky, specificații ambigue) | 5,1 % |
A doua problemă este contaminarea datelor de antrenament: problemele SWE-bench provin din repo-uri open source larg folosite pentru antrenament. Printr-un pipeline de red-teaming automatizat, OpenAI a demonstrat că GPT-5.2, Claude Opus 4.5 și Gemini 3 Flash Preview sunt toate capabile să reproducă verbatim corecțiile de referință (gold patches) pentru anumite probleme — dovadă că aceste exemple au fost văzute în timpul antrenamentului.
Recomandări
OpenAI a încetat să mai raporteze scoruri SWE-bench Verified și recomandă utilizarea SWE-bench Pro în schimb — split-ul său public prezintă semnificativ mai puțină contaminare. Compania cheamă și comunitatea academică să investească în benchmark-uri private necontaminate, precum GDPVal (sarcini redactate de experți de domeniu cu notare holistică).
OpenAI: gpt-realtime-1.5 și WebSockets în Responses API
gpt-realtime-1.5 în Realtime API
23 februarie — OpenAI anunță disponibilitatea gpt-realtime-1.5 în Realtime API. Acest nou model vocal înlocuiește versiunea precedentă și aduce îmbunătățiri pentru aplicațiile conversaționale în timp real.
gpt-realtime-1.5 oferă un tracking al instrucțiunilor mai bun, folosire a instrumentelor mai fiabilă și o precizie multilingvă îmbunătățită. Parteneri precum Genspark au măsurat rezultate concrete în faza alpha: creșterea ratei de conectare umană de la 43,7 % la 66 %, și o rată de precizie de 97,9 % pe conversațiile evaluate. Modelul este disponibil direct în Realtime API existentă fără schimbări de infrastructură.
WebSockets în Responses API
23 februarie — OpenAI introduce suportul WebSockets în Responses API, gândit pentru agenți cu execuție de durată lungă și cu apeluri intensive de instrumente.
O conexiune WebSocket persistentă permite trimiterea doar a noilor inputuri la fiecare tur, fără a retransmite întreg contextul la fiecare cerere. Starea este menținută în memorie între interacțiuni, ceea ce evită recalculările redundante. Conform OpenAI, această abordare accelerează rulările agentice care implică 20 de apeluri de instrumente sau mai multe cu 20 până la 40 %.
Anthropic: The AI Fluency Index
23 februarie — Anthropic publică “The AI Fluency Index”, un raport de cercetare care măsoară stăpânirea IA printre utilizatorii Claude analizând comportamentele lor reale.
Studiul a urmărit 11 comportamente distincte prin mii de conversații pe Claude.ai — de exemplu, frecvența cu care utilizatorii iterează și rafinează munca cu Claude — pentru a măsura cum dezvoltă persoanele o competență efectivă în IA în practică. Raportul se înscrie într-o abordare educațională și de înțelegere a adopției IA, dincolo de simplele metrici de utilizare.
“We tracked 11 behaviors across thousands of Claude.ai conversations—for example, how often people iterate and refine their work with Claude—to measure how people actually develop AI skill in practice.”
🇷🇴 Am urmărit 11 comportamente prin mii de conversații pe Claude.ai — de exemplu, frecvența cu care oamenii iterează și rafinează munca lor cu Claude — pentru a măsura cum dezvoltă oamenii în practică o competență efectivă în IA. — @AnthropicAI pe X
Gemini: noi template-uri Veo 3.1 pentru creație video
23 februarie — Google lansează noi template-uri pentru Veo 3.1 în aplicația Gemini, simplificând creația video prin IA pentru toți utilizatorii.
Pentru a accesa: deschideți gemini.google sau aplicația mobilă, apoi selectați “Create videos” în meniul de instrumente. Galeria de template-uri apare, iar fiecare model poate fi personalizat cu o fotografie de referință și/sau o descriere textuală.
Această lansare face parte dintr-o săptămână intensă pentru ecosistemul Gemini: pe 19 februarie, Google lansase Gemini 3.1 Pro cu un scor de 77,1 % pe ARC-AGI-2, iar pe 18 februarie, Lyria 3 introducuse generarea muzicală direct în aplicație. Template-urile Veo 3.1 completează această extindere către creația multimodală într-o singură aplicație.
Pika AI Selves: o serie documentară realizată autonom de agenți IA
23 februarie — Pika anunță că “AI Selves” — extensii IA ale personalității și competențelor unui creator — au condus și editat autonom propria lor serie documentară, pe tema colaborării lor cu oamenii de la Pika.
Conceptul “AI Self” al Pika se deosebește de agenții IA clasici: în loc de un instrument care execută sarcini, un “AI Self” ar fi o extensie care încorporează competențele, personalitatea și gustul estetic ale unui creator specific. Demonstrația ia forma unei serii documentare realizate integral de aceste entități IA, fără intervenție umană în montaj și regie.
Ce înseamnă toate acestea
Cazul de distilare dezvăluit de Anthropic depășește simpla încălcare a condițiilor de utilizare: documentează pentru prima dată la scară largă cum laboratoarele concurente extrag sistematic capabilitățile unui model frontier. Sofisticarea operațiunii MiniMax — redirecționarea traficului în 24 de ore către un model nou, infrastructura “hydra” cu 20 000 de conturi — sugerează o monitorizare continuă și automatizată. Apelul Anthropic la un răspuns coordonat al industriei și al factorilor de decizie, articulat cu controalele la exportul de cipuri, deschide un nou front în competiția dintre laboratoarele de IA.
Decizia OpenAI de a renunța la SWE-bench Verified este un semnal structural pentru întreaga industrie: benchmark-urile publice pentru codare sunt acum contaminate de datele de antrenament ale celor mai performante modele. Recomandarea de a trece la SWE-bench Pro și la benchmark-uri private precum GDPVal anunță o reconfigurare a standardelor de evaluare — ceea ce face compararea publică între modele și mai dificil de interpretat.
Pe partea de instrumente, cele două anunțuri OpenAI (gpt-realtime-1.5 și WebSockets) vizează cazuri de utilizare concrete: agenți vocali în producție și rulări agentice de durată lungă cu numeroase apeluri de instrumente. Câștigul de 20–40 % oferit de WebSockets nu este neglijabil pentru fluxurile de lucru care însumează 50 sau 100 de apeluri de instrumente pe sesiune.
Surse
- Raport Anthropic — Detecting and Preventing Distillation Attacks
- Anunț @AnthropicAI — distillation
- OpenAI — Why We No Longer Evaluate SWE-bench Verified
- Anunț @OpenAIDevs — gpt-realtime-1.5
- Anunț @OpenAIDevs — WebSockets Responses API
- Anthropic — The AI Fluency Index
- Anunț @AnthropicAI — AI Fluency Index
- Anunț @GeminiApp — templates Veo 3.1
- Anunț @pika_labs — AI Selves
Acest document a fost tradus din versiunea fr în limba ro folosind modelul gpt-5-mini. Pentru mai multe informații despre procesul de traducere, consultați https://gitlab.com/jls42/ai-powered-markdown-translator