A OpenAI confirmou ter banido centenas de contas associadas com um grupo da China, que estariam a usar o ChatGPT para criar código para realizar a vigilância de utilizadores em plataformas sociais, por parte do governo local.
De acordo com o comunicado da OpenAI, o grupo estaria a usar várias contas do ChatGPT para analisar e criar código que teria como único objetivo monitorizar atividades de utilizadores em diferentes plataformas sociais. Os dados eram depois enviados para análise das autoridades chinesas.
Estas aplicações, com o código criado pelo ChatGPT, eram usadas para monitorizar utilizadores na X, Facebook, Youtube, Instagram e outras plataformas sociais. O código demonstrava ainda uma análise cuidada sobre temas partilhados nas redes sociais como protesto contra violações dos direitos humanos na China.
Depois das informações serem recolhidas, eram enviadas para as autoridades chinesas, que poderiam aplicar medidas suplementares nos conteúdos com base na lei local da China.
O grupo terá distribuído as suas atividades dentro do ChatGPT por diversas contas, que realizavam ações diferenciadas entre si. No entanto, os conteúdos criados por uma conta interligavam-se depois com outras, permitindo criar uma rede que usavam o sistema da OpenAI para criar esta ferramenta de vigilância.
Ben Nimmo, investigador da OpenAI, afirma que esta foi a primeira vez que a entidade descobriu um caso onde a sua plataforma estaria a ser usada para esta finalidade. Embora o uso do ChatGPT para tentar criar conteúdo malicioso não seja novo, o formato em como o grupo da China realizou o mesmo é certamente inovador.
O ChatGPT terá ainda sido usado pelo mesmo grupo para criar relatórios e obter informações sobre as operações realizadas. Os investigadores da OpenAI afirmam que parte do código aparenta ter sido criado fora das plataformas da empresa, usando o modelo Llama da Meta – que é aberto e open source.
Nenhum comentário
Seja o primeiro!