Anthropic은 오늘 DeepSeek, Moonshot AI, MiniMax라는 세 중국 연구소가 24,000개의 사기 계정을 통해 Claude와의 1,600만 건 이상의 교환을 수집해 대규모로 증류(distillation)를 수행했다는 내용의 보고서를 공개했습니다. 한편 OpenAI는 SWE-bench Verified를 프론티어 모델의 기준으로 더 이상 사용하지 않겠다고 발표했는데, 벤치마크 테스트의 59.4%가 결함이 있음을 밝혀냈고 여러 최첨단 모델이 학습 과정에서 레퍼런스 수정사항을 암기했다는 사실을 확인했습니다. 도구 쪽에서는 gpt-realtime-1.5가 Realtime API 음성 기능을 개선했고, Responses API에 WebSockets가 도입되어 장기 실행 에이전트를 지원하며, Gemini는 비디오 생성용 Veo 3.1 템플릿을 배포했습니다.
Anthropic: 세 중국 연구소의 산업적 증류 공격
2월 23일 — Anthropic은 DeepSeek, Moonshot AI (Kimi), MiniMax가 Claude 모델을 상대로 대규모 불법 증류 캠페인을 벌였다는 보고서를 발표했습니다.
무슨 일이 있었나
세 연구소는 약 24,000개의 사기 계정을 만들어 API를 통해 Claude와 1,600만 건이 넘는 상호작용을 생성했으며, 이는 Anthropic의 이용약관과 지역별 접근 제한을 위반한 것입니다 — 중국은 상업적으로 Claude에 접근할 수 없습니다.
사용된 기법인 모델 증류(model distillation)는 더 성능이 낮은 모델을 더 능력 있는 모델의 출력으로 학습시키는 방법입니다. 내부적으로 합법적으로 사용될 때는 괜찮지만, 경쟁사가 다른 연구소의 능력을 무단으로 추출해 사용하는 것은 불법입니다.
연구소별 볼륨
| Lab | 교환량 | 주요 타깃 |
|---|---|---|
| DeepSeek | +150,000 교환 | 추론, 채점 루브릭, 검열-안전 대체안 |
| Moonshot AI (Kimi) | +3.4백만 교환 | 에이전트 추론, 코딩, 컴퓨터 사용, 비전 |
| MiniMax | +13백만 교환 | 에이전트 코딩, 도구 사용, 오케스트레이션 |
주목할 만한 기법들
DeepSeek 캠페인은 Claude에게 내부 추론을 단계별로 서술하도록 요구하는 프롬프트를 사용한 점이 특징으로, 대규모의 chain-of-thought 유형 학습 데이터를 생성했습니다. Anthropic은 또한 정치적으로 민감한 질문에 대한 대체안을 제안하도록 DeepSeek를 훈련시키려는 과제들도 감지했습니다.
Anthropic은 MiniMax 캠페인을 아직 활동 중일 때 탐지했습니다. Anthropic이 새로운 모델을 출시하자 MiniMax는 24시간 내에 트래픽의 거의 절반을 새 시스템으로 리디렉션했는데, 이는 Anthropic 출력물을 자동으로 감시하고 있었음을 보여줍니다.
사용된 인프라는 “hydra cluster” 아키텍처에 기반했습니다: API 트래픽을 분산시키는 사기 계정 네트워크와 서드파티 클라우드 플랫폼들. 단일 프록시 네트워크가 동시에 20,000개 이상의 계정을 관리했습니다.
Anthropic의 대응
Anthropic은 여러 대응책을 도입했습니다: 증류 패턴을 탐지하기 위한 분류기와 행동적 지문(fingerprinting) 시스템, 다른 연구소·클라우드 제공업체·당국과의 기술 데이터 공유, 교육·연구 계정에 대한 검증 강화, 제품·API·모델 수준에서의 대응책 개발 등입니다.
“These labs created over 24,000 fraudulent accounts and generated over 16 million exchanges with Claude, extracting its capabilities to train and improve their own models.”
🇰🇷 이들 연구소는 24,000개가 넘는 사기 계정을 만들고 Claude와의 1,600만 건이 넘는 상호작용을 생성하여 Claude의 능력을 추출해 자사 모델을 훈련하고 개선했습니다. — @AnthropicAI — X에서
🔗 Anthropic 보고서 🔗 @AnthropicAI 공지
OpenAI, SWE-bench Verified 포기: 59.4%의 결함 있는 테스트
2월 23일 — OpenAI는 더 이상 SWE-bench Verified 점수를 보고하지 않을 이유를 설명한 분석을 발표하고 업계에도 동일한 조치를 권고했습니다.
배경
2024년 8월에 만들어진 이래 SWE-bench Verified는 소프트웨어 개발 자동화 과제에서 모델의 진전을 측정하는 표준으로 자리잡았습니다. 1년 만에 0%에서 75%로 급성장했으나, 최근 6개월 동안 점수는 74.9%에서 80.9% 사이에서 정체했습니다. OpenAI는 이 정체가 모델의 한계를 반영하는지, 아니면 벤치마크 자체의 결함인지 파악하기 위해 심층 감사를 수행했습니다.
감사 결과: 두 가지 주요 문제
138개 문제의 하위 집합(데이터셋의 27.6%)을 감사한 결과, 최소 59.4%가 기능적으로 올바른 솔루션을 실패시키는 테스트를 포함하고 있었습니다. 결함 분포는 다음과 같습니다:
| 결함 유형 | 결함 비율 |
|---|---|
| 구현 세부사항에 과도하게 제약적인 테스트 | 35.5% |
| 문제 설명에 명시되지 않은 기능을 요구하는 테스트 | 18.8% |
| 기타 결함(flaky 테스트, 모호한 스펙) | 5.1% |
두 번째 문제는 데이터 훈련 오염(contamination)입니다: SWE-bench 문제들은 모델 훈련에 널리 사용된 오픈 소스 리포지토리에서 유래했습니다. 자동 red-teaming 파이프라인을 통해 OpenAI는 GPT-5.2, Claude Opus 4.5, Gemini 3 Flash Preview가 특정 문제의 레퍼런스 수정사항(gold patches)을 문자 그대로 재생산할 수 있음을 보여주었고 — 이는 해당 예제들이 학습 중에 노출되었음을 의미합니다.
권고사항
OpenAI는 SWE-bench Verified 점수 보고를 중단하고 대신 SWE-bench Pro 사용을 권장합니다 — 공개 분할(public split)이 오염이 훨씬 적습니다. 또한 연구 커뮤니티에 GDPVal 같은 전문가가 작성하고 총체적 채점을 하는 비공개 벤치마크에 투자할 것을 촉구했습니다.
🔗 OpenAI 글
OpenAI: gpt-realtime-1.5 및 Responses API의 WebSockets
Realtime API의 gpt-realtime-1.5
2월 23일 — OpenAI는 Realtime API에서 gpt-realtime-1.5의 사용 가능성을 발표했습니다. 이 새로운 음성 모델은 이전 버전을 대체하며 실시간 대화형 애플리케이션을 위한 개선을 제공합니다.
gpt-realtime-1.5은 지시사항 추적이 더 우수하고 도구 사용 신뢰도가 높아졌으며 다국어 정확도가 향상되었습니다. Genspark 같은 파트너는 알파 단계에서 인간 연결률이 43.7%에서 66%로 증가하고 평가된 대화의 정확도가 97.9%에 달하는 구체적 성과를 측정했습니다. 이 모델은 인프라 변경 없이 기존 Realtime API에서 바로 사용할 수 있습니다.
Responses API의 WebSockets
2월 23일 — OpenAI는 장기간 실행되는 에이전트와 도구 호출이 많은 워크로드를 위해 Responses API에 WebSockets 지원을 도입했습니다.
지속적인 WebSocket 연결은 각 턴에서 전체 컨텍스트를 재전송하지 않고 새 입력만 전송할 수 있게 해줍니다. 상태는 상호작용 간 메모리에 유지되어 중복 계산을 피합니다. OpenAI에 따르면 이 접근법은 도구 호출이 20회 이상인 에이전트 실행에서 **20~40%**의 속도 향상을 제공합니다.
Anthropic: The AI Fluency Index
2월 23일 — Anthropic은 Claude 사용자들의 실제 행동을 분석해 AI 숙련도를 측정한 연구 보고서 “The AI Fluency Index”를 발표했습니다.
이 연구는 Claude.ai에서 수천 건의 대화를 통해 11가지 서로 다른 행동을 추적했는데 — 예를 들어 사용자가 Claude와 함께 작업을 얼마나 자주 반복하고 다듬는지 — 사람들이 실무에서 실제로 어떻게 AI 역량을 개발하는지를 측정하기 위한 것이었습니다. 이 보고서는 단순 사용 지표를 넘어 교육과 AI 채택 이해를 위한 노력의 일환입니다.
“We tracked 11 behaviors across thousands of Claude.ai conversations—for example, how often people iterate and refine their work with Claude—to measure how people actually develop AI skill in practice.”
🇰🇷 우리는 Claude.ai의 수천 건의 대화를 통해 11가지 행동을 추적했습니다 — 예를 들어 사람들이 Claude와 함께 자신의 작업을 얼마나 자주 반복하고 다듬는지 — 이를 통해 사람들이 실제로 실무에서 AI 역량을 개발하는 방식을 측정했습니다. — @AnthropicAI — X에서
Gemini: 비디오 제작을 위한 Veo 3.1 신규 템플릿
2월 23일 — Google은 Gemini 애플리케이션에 Veo 3.1용 신규 템플릿을 배포하여 AI 기반 비디오 제작을 사용자 친화적으로 단순화했습니다.
접속 방법: gemini.google 또는 모바일 앱을 열고 도구 메뉴에서 “Create videos”를 선택하세요. 템플릿 갤러리가 표시되며, 각 템플릿은 참조 사진 및/또는 텍스트 설명으로 사용자화할 수 있습니다.
이번 발표는 Gemini 생태계에 있어 바쁜 한 주의 일부입니다: 2월 19일에 Google은 ARC-AGI-2에서 77.1%를 기록한 Gemini 3.1 Pro를 출시했고, 2월 18일에는 Lyria 3가 앱 내에서 직접 음악 생성을 도입했습니다. Veo 3.1 템플릿은 하나의 애플리케이션 내에서 멀티모달 제작 기능을 확장하는 구성 요소입니다.
Pika AI Selves: 에이전트 AI가 자율적으로 제작한 다큐 시리즈
2월 23일 — Pika는 크리에이터의 성격과 역량을 확장하는 AI 확장체인 “AI Selves”가 인간의 개입 없이 자체적으로 연출하고 편집한 다큐멘터리 시리즈를 제작했다고 발표했습니다. 주제는 Pika에서 인간과의 협업을 다루고 있습니다.
Pika의 “AI Self” 개념은 기존의 에이전트 AI와 다릅니다: 단순히 작업을 수행하는 도구가 아니라 특정 크리에이터의 역량, 성격, 미적 취향을 내재화한 확장체입니다. 시연은 이러한 AI 엔터티들이 편집과 연출에 인간 개입 없이 전적으로 책임을 지고 제작한 다큐멘터리 시리즈 형태로 이루어졌습니다.
의미
Anthropic이 폭로한 증류 사건은 단순한 이용약관 위반을 넘어 경쟁 연구소들이 프론티어 모델의 능력을 체계적으로 추출하는 방식을 대규모로 문서화한 최초의 사례입니다. MiniMax의 정교한 작전 — 새 모델로의 24시간 내 트래픽 리디렉션, 20,000개 계정 규모의 “hydra” 인프라 — 은 지속적이고 자동화된 감시를 시사합니다. Anthropic이 산업과 정책 결정자들에게 공동 대응을 촉구한 점과 반도체 수출 통제와 연계한 요구는 연구소 간 경쟁에서 새로운 전선을 형성합니다.
OpenAI가 SWE-bench Verified 보고를 중단한 결정은 업계 전반에 대한 구조적 신호입니다: 공개 코딩 벤치마크는 이제 최상위 모델들의 훈련 데이터에 의해 오염되었습니다. SWE-bench Pro 및 GDPVal 같은 비공개 벤치마크로의 권고는 평가 기준 재구성을 예고하며 — 공개적인 모델 간 비교를 해석하는 것을 더욱 어렵게 만듭니다.
도구 측면에서 OpenAI의 두 발표(gpt-realtime-1.5와 WebSockets)는 실무적 사용 사례를 겨냥합니다: 실제 운영 중인 음성 에이전트와 다수의 도구 호출을 수반하는 장기 에이전트 실행이 그것입니다. WebSockets로 인한 2040%의 성능 향상은 세션당 50100회에 달하는 도구 호출을 연속으로 수행하는 워크플로우에 있어 상당한 이득입니다.
출처
- Anthropic 보고서 — Detecting and Preventing Distillation Attacks
- @AnthropicAI 발표 — 증류 관련
- OpenAI — Why We No Longer Evaluate SWE-bench Verified
- @OpenAIDevs 발표 — gpt-realtime-1.5
- @OpenAIDevs 발표 — Responses API WebSockets
- Anthropic — The AI Fluency Index
- @AnthropicAI 발표 — AI Fluency Index
- @GeminiApp 발표 — Veo 3.1 템플릿
- @pika_labs 발표 — AI Selves
이 문서는 gpt-5-mini 모델을 사용하여 fr 버전에서 ko 언어로 번역되었습니다. 번역 과정에 대한 자세한 정보는 https://gitlab.com/jls42/ai-powered-markdown-translator 를 참조하세요