
A Anthropic revelou um novo relatório onde acusa três grandes programadores chineses de inteligência artificial de conduzirem campanhas massivas para copiar a sua tecnologia. Os laboratórios em causa, MiniMax, DeepSeek e Moonshot, terão utilizado milhares de contas fraudulentas para extrair ilicitamente capacidades do principal modelo da empresa, o Claude. A operação teve como alvo as habilidades mais avançadas do modelo, incluindo raciocínio autónomo, uso de ferramentas e escrita de código.
O roubo de capacidades à escala industrial
A técnica no centro desta polémica é a destilação, um processo onde um modelo mais fraco aprende ao imitar os resultados de um modelo mais avançado. Embora seja uma prática comum e legítima na indústria para criar versões mais pequenas e eficientes, a Anthropic defende que o problema surge quando a concorrência a utiliza de forma abusiva. Desta forma, conseguem adquirir capacidades poderosas numa fração do tempo e do custo que seriam necessários para um desenvolvimento de raiz.
A campanha descrita atingiu uma escala industrial, envolvendo cerca de 24.000 contas fraudulentas que geraram mais de 16 milhões de interações. Para contornar as defesas da plataforma, os atacantes recorreram a arquiteturas apelidadas de "hydra cluster", redes complexas de contas que mascaram e distribuem o tráfego de forma a evitar a deteção.
No topo da lista de interações encontra-se a MiniMax, responsável por mais de 13 milhões de trocas de mensagens focadas em código e uso de ferramentas. A Moonshot registou mais de 3,4 milhões de interações direcionadas para o raciocínio, código e visão computacional, enquanto a DeepSeek contabilizou mais de 150.000 pedidos focados em raciocínio, avaliação baseada em rubricas e respostas a contornar a censura.
Medidas de segurança e o momento atual da empresa
O laboratório norte-americano garante ter identificado os responsáveis com um elevado grau de confiança, através da correlação de endereços IP, metadados de pedidos, indicadores de infraestrutura e pela corroboração com parceiros da indústria.
Segundo o relatório publicado pela Anthropic, a empresa já desenvolveu vários classificadores e sistemas de identificação comportamental concebidos para detetar estes padrões de ataque no tráfego da sua API. Além de partilhar indicadores técnicos com outros laboratórios de inteligência artificial e fornecedores de serviços na nuvem, a empresa reforçou a verificação de contas educacionais e de investigação, implementando ferramentas capazes de detetar atividade coordenada em larga escala.
Este caso surge numa altura em que a empresa fechou uma enorme ronda de financiamento da Série G no valor de 30 mil milhões de dólares, impulsionando a sua avaliação para os 380 mil milhões de dólares. Em simultâneo, lançou recentemente os seus modelos atualizados, Claude Sonnet 4.6 e Claude Opus 4.6, que garantem um desempenho superior no mercado.












Nenhum comentário
Seja o primeiro!