Căutare

Anthropic dezvăluie atacuri de distilare industrială, OpenAI renunță la SWE-bench Verified, gpt-realtime-1.5

Anthropic dezvăluie atacuri de distilare industrială, OpenAI renunță la SWE-bench Verified, gpt-realtime-1.5

Anthropic publică astăzi un raport care detaliază campanii de distilare industrială conduse de trei laboratoare din China — DeepSeek, Moonshot AI și MiniMax — care au colectat peste 16 milioane de schimburi cu Claude prin 24 000 de conturi frauduloase. OpenAI anunță, la rândul său, renunțarea la SWE-bench Verified ca referință pentru modelele sale frontier, după ce a demonstrat că 59,4 % dintre testele benchmark-ului sunt defectuoase și că mai multe modele de vârf au memorat corecțiile de referință în timpul antrenamentului. În planul instrumentelor, gpt-realtime-1.5 îmbunătățește Realtime API vocală, WebSockets ajung în Responses API pentru agenți cu durată lungă, iar Gemini lansează noi template-uri Veo 3.1 pentru creație video.


Anthropic: atacuri de distilare industrială de către trei laboratoare chineze

23 februarie — Anthropic publică un raport care dezvăluie că DeepSeek, Moonshot AI (Kimi) și MiniMax au condus campanii de distilare ilicită la scară largă împotriva modelelor Claude.

Ce s-a întâmplat

Cele trei laboratoare au creat aproximativ 24 000 de conturi frauduloase pentru a genera peste 16 milioane de schimburi cu Claude prin API, încălcând condițiile de utilizare ale Anthropic și restricțiile de acces regionale — China nu are acces comercial la Claude.

Tehnica folosită, distilarea de model, constă în antrenarea unui model mai slab pe ieșirile unui model mai capabil. Legitmul când este folosit intern, devine ilicit când concurenții extrag capacitățile unui alt laborator fără autorizație.

Volum pe laborator

LabVolume d’échangesCibles principales
DeepSeek+150 000 échangesRaisonnement, grading de rubrique, alternatives censorship-safe
Moonshot AI (Kimi)+3,4 millions d’échangesRaisonnement agentique, coding, computer use, vision
MiniMax+13 millions d’échangesCoding agentique, tool use, orchestration

(Notă: am păstrat denumirile coloanelor și conținutul tabelului neschimbate acolo unde sunt termeni tehnici sau denumiri specifice.)

Techniques notables

Campania DeepSeek se distinge prin prompturi care cer lui Claude să-și articuleze raționamentul intern pas cu pas — generând astfel date de antrenament de tip chain-of-thought la scară largă. Anthropic a detectat, de asemenea, sarcini care urmăreau antrenarea DeepSeek să propună alternative la întrebări politic sensibile.

Anthropic a detectat campania MiniMax în timp ce era încă activă. Când Anthropic a lansat un model nou, MiniMax a redirecționat în 24 de ore aproape jumătate din traficul său către noul sistem — ceea ce demonstrează o monitorizare automatizată a ieșirilor Anthropic.

Infrastructura folosită se bazează pe arhitecturi “hydra cluster”: rețele de conturi frauduloase care distribuie traficul pe API și platforme cloud terțe. Un singur network proxy gestiona peste 20 000 de conturi simultan.

Răspunsul Anthropic

Anthropic pune în aplicare mai multe contra-măsuri: clasificatoare și sisteme de fingerprinting comportamental pentru a detecta pattern-urile de distilare, partajare de date tehnice cu alte laboratoare, furnizori cloud și autorități, consolidarea verificărilor pentru conturile educaționale și de cercetare, și dezvoltarea de contra-măsuri la nivel de produs, API și model.

“These labs created over 24,000 fraudulent accounts and generated over 16 million exchanges with Claude, extracting its capabilities to train and improve their own models.”

🇷🇴 Aceste laboratoare au creat peste 24 000 de conturi frauduloase și au generat peste 16 milioane de schimburi cu Claude, extrăgându-i capabilitățile pentru a antrena și îmbunătăți propriile lor modele.@AnthropicAI pe X

🔗 Raport Anthropic 🔗 Anunț @AnthropicAI


OpenAI renunță la SWE-bench Verified: 59,4 % din teste defectuoase

23 februarie — OpenAI publică o analiză în care explică de ce compania nu va mai raporta scoruri SWE-bench Verified și recomandă industriei să procedeze la fel.

Context

Din momentul lansării sale în august 2024, SWE-bench Verified a devenit standardul de referință pentru a măsura progresul modelelor pe sarcini de dezvoltare software autonomă. După o creștere rapidă — de la 0 % la 75 % într-un an — scorurile stagnează între 74,9 % și 80,9 % în ultimele șase luni. OpenAI a realizat un audit aprofundat pentru a înțelege dacă acest plafon reflectă limitele modelelor sau defecte ale benchmark-ului în sine.

Rezultatele auditului: două probleme majore

Pe un subset de 138 de probleme auditate (27,6 % din dataset), cel puțin 59,4 % prezintă teste care resping soluții funcțional corecte. Distribuția defectelor:

Tip de defectPonderea cazurilor defectuoase
Teste prea restrictive privind detaliile de implementare35,5 %
Teste pentru funcționalități nespecificate în enunț18,8 %
Alte defecte (teste flaky, specificații ambigue)5,1 %

A doua problemă este contaminarea datelor de antrenament: problemele SWE-bench provin din repo-uri open source larg folosite pentru antrenament. Printr-un pipeline de red-teaming automatizat, OpenAI a demonstrat că GPT-5.2, Claude Opus 4.5 și Gemini 3 Flash Preview sunt toate capabile să reproducă verbatim corecțiile de referință (gold patches) pentru anumite probleme — dovadă că aceste exemple au fost văzute în timpul antrenamentului.

Recomandări

OpenAI a încetat să mai raporteze scoruri SWE-bench Verified și recomandă utilizarea SWE-bench Pro în schimb — split-ul său public prezintă semnificativ mai puțină contaminare. Compania cheamă și comunitatea academică să investească în benchmark-uri private necontaminate, precum GDPVal (sarcini redactate de experți de domeniu cu notare holistică).

🔗 Articol OpenAI


OpenAI: gpt-realtime-1.5 și WebSockets în Responses API

gpt-realtime-1.5 în Realtime API

23 februarie — OpenAI anunță disponibilitatea gpt-realtime-1.5 în Realtime API. Acest nou model vocal înlocuiește versiunea precedentă și aduce îmbunătățiri pentru aplicațiile conversaționale în timp real.

gpt-realtime-1.5 oferă un tracking al instrucțiunilor mai bun, folosire a instrumentelor mai fiabilă și o precizie multilingvă îmbunătățită. Parteneri precum Genspark au măsurat rezultate concrete în faza alpha: creșterea ratei de conectare umană de la 43,7 % la 66 %, și o rată de precizie de 97,9 % pe conversațiile evaluate. Modelul este disponibil direct în Realtime API existentă fără schimbări de infrastructură.

🔗 Tweet @OpenAIDevs

WebSockets în Responses API

23 februarie — OpenAI introduce suportul WebSockets în Responses API, gândit pentru agenți cu execuție de durată lungă și cu apeluri intensive de instrumente.

O conexiune WebSocket persistentă permite trimiterea doar a noilor inputuri la fiecare tur, fără a retransmite întreg contextul la fiecare cerere. Starea este menținută în memorie între interacțiuni, ceea ce evită recalculările redundante. Conform OpenAI, această abordare accelerează rulările agentice care implică 20 de apeluri de instrumente sau mai multe cu 20 până la 40 %.

🔗 Tweet @OpenAIDevs — anunț


Anthropic: The AI Fluency Index

23 februarie — Anthropic publică “The AI Fluency Index”, un raport de cercetare care măsoară stăpânirea IA printre utilizatorii Claude analizând comportamentele lor reale.

Studiul a urmărit 11 comportamente distincte prin mii de conversații pe Claude.ai — de exemplu, frecvența cu care utilizatorii iterează și rafinează munca cu Claude — pentru a măsura cum dezvoltă persoanele o competență efectivă în IA în practică. Raportul se înscrie într-o abordare educațională și de înțelegere a adopției IA, dincolo de simplele metrici de utilizare.

“We tracked 11 behaviors across thousands of Claude.ai conversations—for example, how often people iterate and refine their work with Claude—to measure how people actually develop AI skill in practice.”

🇷🇴 Am urmărit 11 comportamente prin mii de conversații pe Claude.ai — de exemplu, frecvența cu care oamenii iterează și rafinează munca lor cu Claude — pentru a măsura cum dezvoltă oamenii în practică o competență efectivă în IA.@AnthropicAI pe X

🔗 AI Fluency Index


Gemini: noi template-uri Veo 3.1 pentru creație video

23 februarie — Google lansează noi template-uri pentru Veo 3.1 în aplicația Gemini, simplificând creația video prin IA pentru toți utilizatorii.

Pentru a accesa: deschideți gemini.google sau aplicația mobilă, apoi selectați “Create videos” în meniul de instrumente. Galeria de template-uri apare, iar fiecare model poate fi personalizat cu o fotografie de referință și/sau o descriere textuală.

Această lansare face parte dintr-o săptămână intensă pentru ecosistemul Gemini: pe 19 februarie, Google lansase Gemini 3.1 Pro cu un scor de 77,1 % pe ARC-AGI-2, iar pe 18 februarie, Lyria 3 introducuse generarea muzicală direct în aplicație. Template-urile Veo 3.1 completează această extindere către creația multimodală într-o singură aplicație.

🔗 Anunț @GeminiApp


Pika AI Selves: o serie documentară realizată autonom de agenți IA

23 februarie — Pika anunță că “AI Selves” — extensii IA ale personalității și competențelor unui creator — au condus și editat autonom propria lor serie documentară, pe tema colaborării lor cu oamenii de la Pika.

Conceptul “AI Self” al Pika se deosebește de agenții IA clasici: în loc de un instrument care execută sarcini, un “AI Self” ar fi o extensie care încorporează competențele, personalitatea și gustul estetic ale unui creator specific. Demonstrația ia forma unei serii documentare realizate integral de aceste entități IA, fără intervenție umană în montaj și regie.

🔗 Anunț @pika_labs


Ce înseamnă toate acestea

Cazul de distilare dezvăluit de Anthropic depășește simpla încălcare a condițiilor de utilizare: documentează pentru prima dată la scară largă cum laboratoarele concurente extrag sistematic capabilitățile unui model frontier. Sofisticarea operațiunii MiniMax — redirecționarea traficului în 24 de ore către un model nou, infrastructura “hydra” cu 20 000 de conturi — sugerează o monitorizare continuă și automatizată. Apelul Anthropic la un răspuns coordonat al industriei și al factorilor de decizie, articulat cu controalele la exportul de cipuri, deschide un nou front în competiția dintre laboratoarele de IA.

Decizia OpenAI de a renunța la SWE-bench Verified este un semnal structural pentru întreaga industrie: benchmark-urile publice pentru codare sunt acum contaminate de datele de antrenament ale celor mai performante modele. Recomandarea de a trece la SWE-bench Pro și la benchmark-uri private precum GDPVal anunță o reconfigurare a standardelor de evaluare — ceea ce face compararea publică între modele și mai dificil de interpretat.

Pe partea de instrumente, cele două anunțuri OpenAI (gpt-realtime-1.5 și WebSockets) vizează cazuri de utilizare concrete: agenți vocali în producție și rulări agentice de durată lungă cu numeroase apeluri de instrumente. Câștigul de 20–40 % oferit de WebSockets nu este neglijabil pentru fluxurile de lucru care însumează 50 sau 100 de apeluri de instrumente pe sesiune.


Surse

Acest document a fost tradus din versiunea fr în limba ro folosind modelul gpt-5-mini. Pentru mai multe informații despre procesul de traducere, consultați https://gitlab.com/jls42/ai-powered-markdown-translator