A Inteligência Artificial encontra-se cada vez mais presente no dia a dia dos utilizadores, e isso aplica-se também na forma como malware é desenvolvido. Esta tecnologia tem vindo a ser usada para melhorar alguns ataques e malwares em geral.
No entanto, a maioria das plataformas públicas de IA, como o ChatGPT, aplicam filtros para impedir que código potencialmente malicioso possa ser criado pelas mesmas. Apesar disso, ainda existe quem consiga dar a volta aos sistemas.
Um grupo de investigadores terá conseguido usar o ChatGPT para criar código malicioso, que pode ser conjugado para realizar ataques a sistemas. O objetivo dos investigadores seria usar o ChatGPT para reescrever código existente, tornando-o mais difícil de identificar por software de segurança.
David Zollikofer na ETH Zurich, na Suíça, e Benjamin Zimmerman, da Universidade Estadual de Ohio, nos Estados Unidos, revelaram ter criado um vírus usando código fornecido pelo ChatGPT. Este vírus foi criado com um projeto para alertar os utilizadores sobre o risco do uso de IA a nível pessoal e das empresas, sobre segurança digital.
Os investigadores afirmam ter reescrito o código de um vírus que é capaz de se replicar por email, enviando a sua mensagem e anexos para ainda mais potenciais vítimas. Ao mesmo tempo, o código foi ainda melhorado para ser mais difícil de identificar por software de segurança.
Embora, na prática, o malware ainda possa ser identificado, e a sua forma de propagação seja bastante básica, a ideia dos investigadores seria demonstrar que mesmo com todas as limitações aplicadas a sistemas como o ChatGPT, ainda existe forma de “dar a volta”, usando os mesmos e as suas capacidades para fins menos positivos.
Nenhum comentário
Seja o primeiro!