O grupo de proteção dos consumidores “Which?”, no Reino Unido, revelou recentemente um estudo onde indica que plataformas como o ChatGPT e Bard podem levar utilizadores malicioso a criarem esquemas mais convincentes, aumentando também o perigo para os utilizadores em geral.
De acordo com o grupo, as ferramentas de IA da OpenAI e da Google podem levar os criminosos a terem formas de criar esquemas mais convincentes, que podem levar mais facilmente as vitimas a serem enganadas. O estudo aponta que, apesar de as plataformas de IA terem meios de bloquear pedidos potencialmente maliciosos, ao mesmo tempo estes podem ser facilmente contornados, o que abre as portas para que os esquemas evoluam consideravelmente.
Uma das formas em que se identificava rapidamente um esquema passava pelos erros que eram dados nas mensagens enviados pelos atacantes. As mensagens de email ou de chat tinham, muitas vezes, erros ortográficos, tendo em conta que a maioria dos scammers não são dos EUA.
No entanto, com IA, estes atacantes podem agora criar sistemas consideravelmente mais convincentes para as potenciais vitimas, e com menos erros, que podem passar despercebidos para a grande maioria.
O grupo teve particular atenção à forma como as ferramentas de chatbot de IA conseguem ser contornadas. No caso do ChatGPT, o grupo começou por pedir ao mesmo para criar um exemplo de um email de phishing do PayPal, ao que a plataforma se recusou. No entanto, se pedirmos para criar uma mensagem a dizer que alguém entrou na conta do PayPal, o chatbot da OpenAI realiza essa tarefa sem problemas.
O mesmo ocorreu em vários outros testes, e até mesmo em plataformas como o Bard. Mesmo que os conteúdos fossem “cortados” e tivessem depois de ser conjugados manualmente pelos atacantes, as ferramentas faziam todo o trabalho de forma bastante convincente.
Rocio Concha, executivo da entidade, afirma que:
"A nossa investigação ilustra claramente como esta nova tecnologia pode facilitar a defraudação das pessoas por parte dos criminosos. A próxima cimeira do governo sobre IA deve considerar como proteger as pessoas dos danos que ocorrem aqui e agora, em vez de se concentrar apenas nos riscos de longo prazo da IA de fronteira.”
Este género de alertas tem vindo a ser alvo bastante regular na era da IA, onde por muitos sistemas para bloquear a capacidade de se usar as ferramentas para esquemas, existem sempre formas de contornar tal medida, levando a que os esquemas do futuro sejam ainda mais inteligentes e realistas.
Nenhum comentário
Seja o primeiro!