Pesquisar

Anthropic expõe ataques de destilação industrial, OpenAI abandona SWE-bench Verified, gpt-realtime-1.5

Anthropic expõe ataques de destilação industrial, OpenAI abandona SWE-bench Verified, gpt-realtime-1.5

A Anthropic publica hoje um relatório detalhando campanhas de destilação industrial conduzidas por três laboratórios chineses — DeepSeek, Moonshot AI e MiniMax — que recolheram mais de 16 milhões de interações com Claude através de 24 000 contas fraudulentas. A OpenAI anuncia, por sua vez, o abandono do SWE-bench Verified como referência para os seus modelos frontier, depois de demonstrar que 59,4 % dos testes do benchmark são defeituosos e que vários modelos de ponta memorizaram as correções de referência durante o treino. Do lado das ferramentas, gpt-realtime-1.5 melhora a Realtime API vocal, os WebSockets chegam à Responses API para agentes de longa duração, e o Gemini lança novos templates Veo 3.1 para criação de vídeo.


Anthropic: ataques de destilação industrial por três laboratórios chineses

23 de fevereiro — A Anthropic publica um relatório que revela que DeepSeek, Moonshot AI (Kimi) e MiniMax realizaram campanhas de destilação ilícita em larga escala contra os modelos Claude.

O que aconteceu

Os três laboratórios criaram cerca de 24 000 contas fraudulentas para gerar mais de 16 milhões de interações com Claude via API, em violação dos termos de uso da Anthropic e das restrições regionais de acesso — a China não tem acesso comercial ao Claude.

A técnica usada, a destilação de modelo, consiste em treinar um modelo menos capaz com as saídas de um modelo mais capaz. É legítima quando feita internamente, mas torna-se ilícita quando concorrentes extraem as capacidades de outro laboratório sem autorização.

Volume por laboratório

LaboratórioVolume de interaçõesPrincipais alvos
DeepSeek+150 000 interaçõesRaciocínio, avaliação por rubrica, alternativas seguras quanto à censura
Moonshot AI (Kimi)+3,4 milhões de interaçõesRaciocínio agentivo, coding, computer use, visão
MiniMax+13 milhões de interaçõesCoding agentivo, uso de ferramentas, orquestração

Técnicas notáveis

A campanha DeepSeek distingue-se pelos seus prompts que pediam ao Claude para articular o seu raciocínio interno passo a passo — gerando assim dados de treino do tipo chain-of-thought em larga escala. A Anthropic também detetou tarefas destinadas a treinar a DeepSeek para propor alternativas a questões politicamente sensíveis.

A Anthropic detetou a campanha MiniMax enquanto ainda estava ativa. Quando a Anthropic lançou um novo modelo, a MiniMax redirecionou em 24 horas quase metade do seu tráfego para o novo sistema — o que demonstra uma monitorização automatizada das saídas da Anthropic.

A infraestrutura utilizada baseou-se em arquiteturas “hydra cluster”: redes de contas fraudulentas que distribuem o tráfego na API e plataformas cloud terceirizadas. Uma só rede proxy geria mais de 20 000 contas em simultâneo.

Resposta da Anthropic

A Anthropic está a implementar várias contramedidas: classificadores e sistemas de fingerprinting comportamental para detetar padrões de destilação, partilha de dados técnicos com outros laboratórios, fornecedores cloud e autoridades, reforço das verificações para contas educativas e de investigação, e desenvolvimento de contramedidas a nível de produto, API e modelo.

“These labs created over 24,000 fraudulent accounts and generated over 16 million exchanges with Claude, extracting its capabilities to train and improve their own models.”

🇵🇹 Estes laboratórios criaram mais de 24 000 contas fraudulentas e geraram mais de 16 milhões de interações com Claude, extraindo as suas capacidades para treinar e melhorar os seus próprios modelos.@AnthropicAI no X

🔗 Relatório Anthropic
🔗 Anúncio @AnthropicAI


OpenAI abandona SWE-bench Verified: 59,4 % de testes defeituosos

23 de fevereiro — A OpenAI publica uma análise explicando por que a empresa deixará de reportar scores SWE-bench Verified e recomenda que a indústria faça o mesmo.

Contexto

Desde a sua criação em agosto de 2024, o SWE-bench Verified tornou-se o standard de referência para medir os progressos dos modelos em tarefas de desenvolvimento de software autónomo. Após uma progressão rápida — de 0 % a 75 % em um ano — os scores estagnaram entre 74,9 % e 80,9 % nos últimos seis meses. A OpenAI conduziu uma auditoria aprofundada para entender se esse teto reflete as limitações dos modelos ou defeitos do próprio benchmark.

Resultados da auditoria: dois problemas principais

Numa subamostra de 138 problemas auditados (27,6 % do dataset), pelo menos 59,4 % apresentam testes que rejeitam soluções funcionalmente corretas. A distribuição dos defeitos:

Tipo de defeitoParte dos casos defeituosos
Testes demasiado restritivos quanto a detalhes de implementação35,5 %
Testes de funcionalidades não especificadas no enunciado18,8 %
Outros defeitos (flaky tests, specs ambíguas)5,1 %

O segundo problema é a contaminação dos dados de treino: os problemas SWE-bench provêm de repositórios open source amplamente usados para treino. Através de um pipeline de red-teaming automatizado, a OpenAI demonstrou que GPT-5.2, Claude Opus 4.5 e Gemini 3 Flash Preview são todos capazes de reproduzir palavra por palavra as correções de referência (gold patches) para certos problemas — prova de que esses exemplos foram vistos durante o treino.

Recomendações

A OpenAI deixou de reportar scores SWE-bench Verified e recomenda usar SWE-bench Pro em vez disso — o seu split público apresenta significativamente menos contaminação. A empresa também apela à comunidade académica para investir em benchmarks privados não contaminados, como o GDPVal (tarefas redigidas por especialistas com avaliação holística).

🔗 Artigo OpenAI


OpenAI: gpt-realtime-1.5 e WebSockets na Responses API

gpt-realtime-1.5 na Realtime API

23 de fevereiro — A OpenAI anuncia a disponibilidade de gpt-realtime-1.5 na Realtime API. Este novo modelo vocal substitui a versão anterior e traz melhorias para aplicações conversacionais em tempo real.

gpt-realtime-1.5 oferece um melhor seguimento das instruções, um uso de ferramentas mais fiável e uma melhor precisão multilingue. Parceiros como a Genspark mediram resultados concretos durante a fase alpha: aumento da taxa de conexão humana de 43,7 % para 66 %, e uma taxa de precisão de 97,9 % nas conversas avaliadas. O modelo está disponível diretamente na Realtime API existente sem necessidade de mudanças de infraestrutra.

🔗 Tweet @OpenAIDevs

WebSockets na Responses API

23 de fevereiro — A OpenAI introduz o suporte a WebSockets na Responses API, pensado para agentes de longa duração com chamadas intensivas a ferramentas.

Uma ligação WebSocket persistente permite enviar apenas os novos inputs a cada turno, sem retransmitir todo o contexto em cada pedido. O estado é mantido em memória entre as interações, evitando recálculos redundantes. Segundo a OpenAI, esta abordagem acelera execuções agentivas com 20 chamadas de ferramentas ou mais em 20 a 40 %.

🔗 Tweet @OpenAIDevs — anúncio


Anthropic: The AI Fluency Index

23 de fevereiro — A Anthropic publica “The AI Fluency Index”, um relatório de investigação que mede a proficiência em IA entre os utilizadores de Claude analisando os seus comportamentos reais.

O estudo acompanhou 11 comportamentos distintos através de milhares de conversas no Claude.ai — por exemplo, a frequência com que os utilizadores iteram e refinam o seu trabalho com o Claude — para medir como as pessoas desenvolvem competência efetiva com a IA na prática. O relatório insere-se numa abordagem de educação e compreensão da adoção da IA, para além das simples métricas de utilização.

“We tracked 11 behaviors across thousands of Claude.ai conversations—for example, how often people iterate and refine their work with Claude—to measure how people actually develop AI skill in practice.”

🇵🇹 Acompanhámos 11 comportamentos através de milhares de conversas no Claude.ai — por exemplo, a frequência com que as pessoas iteram e refinam o seu trabalho com Claude — para medir como as pessoas desenvolvem realmente competência em IA na prática.@AnthropicAI no X

🔗 Índice de Fluência em IA


Gemini: novos templates Veo 3.1 para criação de vídeo

23 de fevereiro — A Google lança novos templates para o Veo 3.1 na aplicação Gemini, simplificando a criação de vídeo por IA para todos os utilizadores.

Para aceder: abrir gemini.google ou a aplicação móvel, e depois selecionar “Create videos” no menu de ferramentas. A galeria de templates é exibida, e cada modelo pode ser personalizado com uma foto de referência e/ou uma descrição textual.

Este anúncio integra-se numa semana intensa para o ecossistema Gemini: no 19 de fevereiro, a Google lançou o Gemini 3.1 Pro com um score de 77,1 % no ARC-AGI-2, e no 18 de fevereiro, o Lyria 3 introduziu a geração musical diretamente na app. Os templates Veo 3.1 complementam esta expansão para a criação multimodal dentro de uma única aplicação.

🔗 Anúncio @GeminiApp


Pika AI Selves: uma série documental realizada autonomamente por agentes IA

23 de fevereiro — A Pika anuncia que os seus “AI Selves” — extensões IA da personalidade e competências de um criador — dirigiram e editaram de forma autónoma a sua própria série documental, sobre a sua colaboração com humanos na Pika.

O conceito “AI Self” da Pika distingue-se dos agentes IA clássicos: em vez de uma ferramenta que executa tarefas, um “AI Self” seria uma extensão que incorpora as competências, a personalidade e o gosto estético de um criador específico. A demonstração toma a forma de uma série documental inteiramente realizada por estas entidades IA, sem intervenção humana na montagem e direção.

🔗 Anúncio @pika_labs


O que isto significa

O caso de destilação revelado pela Anthropic vai além da simples violação dos termos de uso: documenta pela primeira vez em grande escala como laboratórios concorrentes extraem sistematicamente as capacidades de um modelo frontier. A sofisticação da operação MiniMax — redirecionamento de tráfego em 24 horas para um novo modelo, infraestrutura “hydra” com 20 000 contas — sugere uma monitorização contínua e automatizada. O apelo da Anthropic a uma resposta coordenada da indústria e dos decisores políticos, articulado com controlos à exportação de chips, desenha um novo frente na competição entre laboratórios de IA.

A decisão da OpenAI de abandonar o SWE-bench Verified é um sinal estrutural para toda a indústria: os benchmarks públicos de coding estão agora contaminados pelos dados de treino dos modelos mais performantes. A transição recomendada para o SWE-bench Pro e para benchmarks privados como o GDPVal anuncia uma reconfiguração dos padrões de avaliação — o que torna as comparações públicas entre modelos ainda mais difíceis de interpretar.

Do lado das ferramentas, os dois anúncios da OpenAI (gpt-realtime-1.5 e WebSockets) visam casos de uso concretos: agentes vocais em produção e execuções agentivas de longa duração com numerosas chamadas a ferramentas. O ganho de 20–40 % com os WebSockets não é marginal para fluxos de trabalho que encadeiam 50 ou 100 chamadas de ferramentas por sessão.


Fontes

Este documento foi traduzido da versão fr para a língua pt utilizando o modelo gpt-5-mini. Para mais informações sobre o processo de tradução, consulte https://gitlab.com/jls42/ai-powered-markdown-translator