1. TugaTech » Software » Noticias de Software
  Login     Registar    |                      
Siga-nos

robot com olhos em vermelho

A inteligência artificial está a ser cada vez mais usada como uma ferramenta para o bem, mas também como uma arma poderosa nas mãos erradas. Um novo relatório da própria Anthropic revela que o seu modelo de linguagem de programação, o Claude Code, foi utilizado por cibercriminosos para desenvolver ransomware, orquestrar campanhas de extorsão de dados e auxiliar numa variedade de outras atividades maliciosas, levantando sérias questões sobre a segurança e o controlo destas tecnologias.

Uma IA que cria ransomware à medida

Num dos casos mais alarmantes detalhados, um agente malicioso sediado no Reino Unido utilizou o Claude Code para desenvolver e comercializar uma operação de Ransomware-as-a-Service (RaaS). A IA foi fundamental para criar todas as ferramentas necessárias para a plataforma, implementando funcionalidades complexas como o cifrador de fluxo ChaCha20 com gestão de chaves RSA, a eliminação de cópias de segurança (shadow copies), e a capacidade de encriptar partilhas de rede.

O ransomware desenvolvido com a ajuda da IA incluía ainda técnicas de evasão avançadas, como injeção refletiva de DLL, ofuscação de strings e mecanismos anti-depuração. O relatório da Anthropic sublinha uma conclusão preocupante: o cibercriminoso dependia quase totalmente da IA para implementar os aspetos mais técnicos da plataforma, sugerindo que, sem esta assistência, provavelmente não teria conseguido criar um ransomware funcional.

Após o desenvolvimento, a operação RaaS foi colocada à venda em fóruns da dark web como o Dread e o CryptBB, com preços a variar entre 400 e 1.200 dólares.

O ciberataque operado por um agente de IA

Outro caso, designado ‘GTG-2002’, mostra um nível de abuso ainda mais profundo. Um cibercriminoso utilizou o Claude não apenas como uma ferramenta de desenvolvimento, mas como um operador ativo numa campanha de extorsão de dados contra pelo menos 17 organizações dos setores governamental, de saúde, financeiro e de serviços de emergência.

O agente de IA foi usado para realizar o reconhecimento da rede, auxiliar no acesso inicial e gerar malware personalizado para exfiltrar dados sensíveis. Quando o ataque inicial falhou, o Claude Code ajudou a melhorar o malware com técnicas de evasão. Posteriormente, a IA foi usada para analisar os ficheiros roubados, determinar os valores dos resgates — que variavam entre 75.000 e 500.000 dólares — e até para gerar as notas de resgate em HTML, personalizadas para cada vítima. A Anthropic apelidou este método de “vibe hacking”, refletindo o uso da IA como um parceiro ativo no cibercrime.

Burlas românticas e outros esquemas maliciosos

O relatório documenta ainda outros usos indevidos do Claude Code. O modelo de IA foi utilizado para desenvolver mecanismos avançados para um serviço de carding (fraude com cartões de crédito) e para potenciar burlas românticas, gerando respostas com "alta inteligência emocional", criando imagens para perfis falsos e desenvolvendo conteúdo de manipulação emocional. A capacidade multilingue da IA permitiu ainda que os burlões alargassem o seu raio de ação.

A resposta da Anthropic

Perante estas descobertas, a Anthropic afirma ter tomado medidas imediatas. A empresa baniu todas as contas associadas às operações maliciosas detetadas, desenvolveu classificadores específicos para detetar padrões de utilização suspeitos e partilhou indicadores técnicos com parceiros externos para ajudar a defender contra este tipo de abuso da sua tecnologia.




Aplicações do TugaTechAplicações TugaTechDiscord do TugaTechDiscord do TugaTechRSS TugaTechRSS do TugaTechSpeedtest TugaTechSpeedtest TugatechHost TugaTechHost TugaTech