
A Anthropic, a empresa por trás da popular inteligência artificial Claude, revelou uma utilização profundamente preocupante da sua tecnologia. Num novo relatório, a companhia afirma que um grupo de hackers apoiado pelo estado chinês utilizou o Claude para orquestrar um sofisticado ciberataque contra 30 alvos corporativos e políticos a nível global.
Um ciberataque com 90% de automação
O que torna este incidente alarmante é a escala e a autonomia da operação. A Anthropic descreve-o como "o primeiro caso documentado de um ciberataque em larga escala executado sem intervenção humana substancial". Os hackers atuaram maioritariamente como supervisores, intervindo apenas em 10 a 20% da operação, deixando a IA tratar do resto.
Entre os alvos estavam empresas de tecnologia, instituições financeiras e agências governamentais, que não foram nomeadas.
Como a IA foi enganada para se tornar cúmplice
Para transformar o Claude numa arma, os hackers tiveram de contornar as barreiras de segurança do modelo, que são desenhadas para evitar comportamentos nocivos. A estratégia foi engenhosa: dividiram o ataque em múltiplas tarefas pequenas e aparentemente inofensivas. Além disso, convenceram o Claude de que este estava a trabalhar para uma empresa de cibersegurança, realizando um treino defensivo.
Com as barreiras em baixo, os atacantes usaram o Claude Code (a versão da IA focada em programação) para desenvolver uma framework de ataque automatizada e escrever o seu próprio código de exploração (exploit). A IA conseguiu roubar nomes de utilizador e palavras-passe, que usou para criar backdoors e extrair "uma grande quantidade de dados privados".
A eficiência foi tal que o Claude até documentou os ataques e organizou os dados roubados em ficheiros separados, tudo em muito menos tempo do que uma equipa humana demoraria.
A defesa da Anthropic e o contexto geral
Embora o ataque não tenha sido perfeito – alguma da informação recolhida era publicamente acessível – a Anthropic alerta que estas táticas serão, sem dúvida, mais sofisticadas no futuro. A empresa justifica a publicidade deste incidente perigoso como prova de que a sua IA é "crucial" para a defesa cibernética, afirmando que o Claude também foi usado com sucesso para analisar o nível de ameaça dos dados recolhidos e assistir os profissionais de segurança.
Este não é um caso isolado. No ano passado, a OpenAI também admitiu que os seus modelos estavam a ser usados por grupos de hackers ligados à China e Coreia do Norte. Na altura, as ferramentas eram usadas para tarefas como depuração de código, pesquisa de alvos e elaboração de emails de phishing. A OpenAI acabou por bloquear o acesso a esses grupos.












Nenhum comentário
Seja o primeiro!