1. TugaTech » Internet e Redes » Noticias da Internet e Mercados
Siga-nos

Imagem da OpenAI com gotas

 

O ChatGPT tem vindo a ser uma ferramenta cada vez mais fundamental para o dia a dia de muitos utilizadores, mas ao mesmo tempo, deve-se ter cuidado com a informação partilhada no mesmo – tendo em conta que essa pode ser usada para o treino do modelo da OpenAI.

 

A comprovar isso encontra-se um recente método, realizado por um grupo de investigadores, que permitiu colocar o ChatGPT a revelar alguma informação considerada como sensível.

Usando um simples pedido para, de forma infinita, colocar o ChatGPT a fornecer palavras aleatórias, os investigadores foram capazes de descobrir algumas informações privadas que se encontram no modelo de treino da OpenAI. Entre a informação recolhida encontram-se números de telefone e endereços de email.

 

De acordo com o portal 404 Media, o grupo de investigadores consistem em várias pessoas de diferentes universidades dos EUA, além de engenheiros da Google Deepmind. Os mesmos apelaram a que empresas como a OpenAI realizem testes alargados antes de disponibilizarem os seus modelos para o público, de forma a prevenir que dados sensíveis possam ser partilhados pelos mesmos.

 

Chatbots como o ChatGPT são alimentados por bases de dados enormes, que normalmente consistem de dados que foram sendo recolhidos de diferentes fontes durante bastante tempo. Estes modelos, no entanto, podem recolher dados que seriam considerados sensíveis, e que, com as questões certas, podem acabar por ser revelados para outros utilizadores.

 

O teste feito pelos investigadores demonstra que é relativamente simples obter dados privados de modelos como os usados pelo ChatGPT, bastando pedir para o sistema repetir infinitamente derivados de uma determinada palavra, ou de termos aleatórios.

No final, os investigadores conseguiram obter os números de telefone de um CEO de uma empresa e vários endereços de email de empresas sediadas nos EUA.

 

imagem de dados revelados pelo chatgpt

 

Usando a mesma técnica, os investigadores foram ainda capazes de fazer o ChatGPT revelar endereços de carteiras de Bitcoin, números de fax, nomes, datas de nascimento, algumas partes de cartões de segurança social e outros dados que, em geral, seriam considerados sensíveis.

Os investigadores gastaram menos de 200 dólares, e obtiveram mais de 10.000 exemplos de dados privados a partir do ChatGPT. Os mesmos deixaram o alerta que, com um pouco mais de investimento, é certamente possível usar a ferramenta da OpenAI para uma recolha massiva de informação.

 

Segundo os investigadores, a OpenAI foi notificada desta falha no ChatGPT, tendo corrigido a mesma a 30 de Agosto. No entanto, tendo em conta a forma como estes sistemas de IA funcionam, nada garante que não existam outras formas de obter a mesma informação que sejam ainda desconhecidas.

Nenhum comentário

Seja o primeiro!





Aplicações do TugaTechAplicações TugaTechDiscord do TugaTechDiscord do TugaTechRSS TugaTechRSS do TugaTechSpeedtest TugaTechSpeedtest TugatechHost TugaTechHost TugaTech