
A OpenAI revelou ter desmantelado mais uma série de operações maliciosas na sua plataforma, com especial destaque para contas provenientes da China que utilizavam o ChatGPT para desenvolver ferramentas de vigilância destinadas a redes sociais. As descobertas foram detalhadas no mais recente relatório de ameaças da empresa, que resume as atividades fraudulentas interrompidas no último trimestre.
Segundo a investigação, uma das contas banidas, com origem na China, usava o assistente de inteligência artificial para criar materiais promocionais e planos de projeto para uma ferramenta de "escuta" de redes sociais. Este software seria capaz de rastrear plataformas como o X (antigo Twitter), Facebook, Instagram, Reddit, TikTok e YouTube em busca de conteúdos políticos, étnicos ou religiosos específicos, definidos pelo operador da ferramenta. A OpenAI refere que o trabalho era alegadamente destinado a um cliente governamental, embora não consiga verificar de forma independente se a ferramenta foi efetivamente usada por uma entidade do governo chinês.
Vigilância de etnias e desenvolvimento de malware
Num outro caso preocupante, a empresa baniu uma conta que utilizava o ChatGPT para desenvolver uma proposta para uma ferramenta descrita como um "Modelo de Aviso de Afluxo de Alto Risco Relacionado com Uigures". O objetivo seria auxiliar no rastreamento dos movimentos de indivíduos "relacionados com os uigures", uma minoria muçulmana sobre a qual recaem longas acusações de violações de direitos humanos por parte da China.
As atividades maliciosas detetadas não se limitaram à China. O relatório revela também que programadores de língua russa, coreana e chinesa usaram o ChatGPT para refinar malware. Além disso, foram desmanteladas redes inteiras no Camboja, Myanmar e Nigéria que recorriam ao chatbot para criar esquemas fraudulentos com o objetivo de enganar pessoas.
Apesar destes usos indevidos, a OpenAI estima que a sua tecnologia é usada para detetar burlas três vezes mais do que para as criar.
Uma luta contínua pela segurança
Esta não é a primeira vez que a OpenAI intervém para travar o uso malicioso da sua tecnologia. Ainda este verão, a empresa interrompeu operações no Irão, Rússia e China que usavam o ChatGPT para criar publicações, comentários e gerar divisão como parte de campanhas de influência online em várias plataformas de redes sociais.
A publicação destes relatórios de ameaças, iniciada em fevereiro de 2024, faz parte de um esforço da empresa para aumentar a consciencialização sobre o uso de grandes modelos de linguagem por parte de atores ligados a governos e outros grupos maliciosos, que os utilizam para depurar código malicioso, desenvolver esquemas de phishing e outras atividades ilícitas.











Nenhum comentário
Seja o primeiro!