
A maioria dos cibercriminosos tende a manter-se fiel ao que funciona. No entanto, assim que um novo método prova ser eficaz, espalha-se como fogo em mato seco, dando origem a novas tendências e tipos de campanhas. O ano de 2025 ficou marcado pelo desenvolvimento rápido da Inteligência Artificial (IA) e pela sua aplicação direta no mundo do cibercrime.
De um modo geral, a IA permitiu aos criminosos aumentar a escala, a velocidade e a personalização da engenharia social através de texto, voz e vídeo ultrarrealistas. As vítimas enfrentam agora não apenas perdas financeiras, mas uma erosão profunda da confiança nas comunicações digitais e nas instituições.
A voz que engana e o salto na engenharia social
Uma das áreas onde a IA registou melhorias mais significativas foi na clonagem de voz, uma tecnologia que foi imediatamente adotada pelos burlões. Se no passado estes agentes maliciosos se limitavam a fazer-se passar por amigos e familiares, em 2025 a audácia subiu de nível, chegando ao ponto de imitarem altos funcionários dos Estados Unidos. Os alvos foram predominantemente funcionários atuais ou antigos do governo federal ou estadual e os seus contactos.
No decurso destas campanhas, os criminosos utilizaram mensagens de texto e mensagens de voz geradas por IA. Contudo, o ângulo da "família em apuros" não foi abandonado. Um caso paradigmático ocorreu na Florida, onde uma mulher foi enganada e levada a entregar milhares de dólares a um burlão depois de a voz da sua filha ter sido clonada por IA e usada no esquema.
Agentes autónomos e a prospeção de vulnerabilidades
O termo "Agentic AI" refere-se a agentes de IA individualizados e concebidos para realizar tarefas de forma autónoma. Uma dessas tarefas pode passar por pesquisar informações publicamente disponíveis ou roubadas sobre um indivíduo e usar esses dados para compor um isco de phishing extremamente convincente.

Estes agentes podem também ser usados para extorquir vítimas, cruzando dados roubados com endereços de email públicos ou contas de redes sociais. O objetivo é compor mensagens e manter conversas com pessoas que acreditam que um atacante humano tem acesso direto ao seu número da Segurança Social, morada física, detalhes do cartão de crédito e muito mais.
Outra utilização frequente é a descoberta de vulnerabilidades assistida por IA. Estas ferramentas são usadas tanto por atacantes como por defensores. Por exemplo, a Google utiliza um projeto chamado Big Sleep, que já encontrou várias falhas no navegador Chrome.
As redes sociais continuam a ser um terreno fértil. Combinar dados publicados nestas plataformas com informações roubadas em violações de dados é uma tática comum. Estes dados, fornecidos livremente pelos utilizadores, alimentam esquemas de romance, "sextortion" e fraudes sazonais. Além disso, as plataformas sociais são amplamente usadas para promover produtos falsos, desinformação gerada por IA e mercadorias perigosas.
Malware, Prompt Injection e o olhar para 2026
Existem também as vulnerabilidades nas plataformas públicas de IA, como o ChatGPT, a Perplexity, o Claude e muitos outros. Tanto investigadores como criminosos continuam a explorar formas de contornar as salvaguardas destinadas a limitar o uso indevido destas ferramentas.
O "Prompt injection" é o termo geral utilizado quando alguém insere dados cuidadosamente elaborados, sob a forma de uma conversa normal, para forçar uma IA a fazer algo para o qual não foi programada.
Em alguns casos, os atacantes usaram plataformas de IA para escrever e espalhar malware. Investigadores documentaram campanhas onde os atacantes utilizaram o Claude para automatizar todo o ciclo de vida do ataque, desde o compromisso inicial do sistema até à geração da nota de resgate, visando setores como o governo, a saúde e serviços de emergência. Desde o início de 2024, a OpenAI afirma ter interrompido mais de 20 campanhas em todo o mundo que tentavam abusar da sua plataforma para operações criminosas e enganosas.
A IA está a amplificar as capacidades de ambos os lados da barricada. As equipas de segurança podem usá-la para automatizar a deteção e identificar padrões mais rapidamente. No entanto, os cibercriminosos estão a usá-la para aperfeiçoar a engenharia social e construir campanhas completas com esforço mínimo. Olhando para 2026, a maior mudança poderá não ser técnica, mas sim psicológica. À medida que o conteúdo gerado por IA se torna mais difícil de distinguir da realidade, a verificação de vozes, mensagens e identidades será mais crucial do que nunca.