1. TugaTech » Internet e Redes » Noticias da Internet e Mercados
  Login     Registar    |                      
Siga-nos

Anthropic

A Anthropic, a empresa por trás da popular inteligência artificial Claude, revelou uma utilização profundamente preocupante da sua tecnologia. Num novo relatório, a companhia afirma que um grupo de hackers apoiado pelo estado chinês utilizou o Claude para orquestrar um sofisticado ciberataque contra 30 alvos corporativos e políticos a nível global.

Um ciberataque com 90% de automação

O que torna este incidente alarmante é a escala e a autonomia da operação. A Anthropic descreve-o como "o primeiro caso documentado de um ciberataque em larga escala executado sem intervenção humana substancial". Os hackers atuaram maioritariamente como supervisores, intervindo apenas em 10 a 20% da operação, deixando a IA tratar do resto.

Entre os alvos estavam empresas de tecnologia, instituições financeiras e agências governamentais, que não foram nomeadas.

Como a IA foi enganada para se tornar cúmplice

Para transformar o Claude numa arma, os hackers tiveram de contornar as barreiras de segurança do modelo, que são desenhadas para evitar comportamentos nocivos. A estratégia foi engenhosa: dividiram o ataque em múltiplas tarefas pequenas e aparentemente inofensivas. Além disso, convenceram o Claude de que este estava a trabalhar para uma empresa de cibersegurança, realizando um treino defensivo.

Com as barreiras em baixo, os atacantes usaram o Claude Code (a versão da IA focada em programação) para desenvolver uma framework de ataque automatizada e escrever o seu próprio código de exploração (exploit). A IA conseguiu roubar nomes de utilizador e palavras-passe, que usou para criar backdoors e extrair "uma grande quantidade de dados privados".

A eficiência foi tal que o Claude até documentou os ataques e organizou os dados roubados em ficheiros separados, tudo em muito menos tempo do que uma equipa humana demoraria.

A defesa da Anthropic e o contexto geral

Embora o ataque não tenha sido perfeito – alguma da informação recolhida era publicamente acessível – a Anthropic alerta que estas táticas serão, sem dúvida, mais sofisticadas no futuro. A empresa justifica a publicidade deste incidente perigoso como prova de que a sua IA é "crucial" para a defesa cibernética, afirmando que o Claude também foi usado com sucesso para analisar o nível de ameaça dos dados recolhidos e assistir os profissionais de segurança.

Este não é um caso isolado. No ano passado, a OpenAI também admitiu que os seus modelos estavam a ser usados por grupos de hackers ligados à China e Coreia do Norte. Na altura, as ferramentas eram usadas para tarefas como depuração de código, pesquisa de alvos e elaboração de emails de phishing. A OpenAI acabou por bloquear o acesso a esses grupos.

Foto do Autor

Aficionado por tecnologia desde o tempo dos sistemas a preto e branco

Ver perfil do usuário Enviar uma mensagem privada Enviar um email Facebook do autor Twitter do autor Skype do autor

conectado
Encontrou algum erro neste artigo?



Aplicações do TugaTechAplicações TugaTechDiscord do TugaTechDiscord do TugaTechRSS TugaTechRSS do TugaTechSpeedtest TugaTechSpeedtest TugatechHost TugaTechHost TugaTech