Embora o ChatGPT esteja atualmente fortemente integrado nas tarefas de muitos para o dia a dia, faz apenas dois anos desde que a plataforma da OpenAI começou realmente a ganhar relevância no mercado. A OpenAI tem vindo a avançar nas suas tecnologias, mas por muitos avanços que sejam feitos, nem todas as respostas que a IA forneça devem ser tido em conta como verdadeiras.
Um dos grandes problemas da IA ainda é a alucinação ou apresentar mentiras como factos. Isto ocorre mais do que deveria em certos modelos de IA, mas a OpenAI tem vindo a trabalhar para tentar resolver esse problema – e a própria afirma que o ChatGPT ainda o possui.
No entanto, o grupo de defesa Noyb vai agora apresentar uma queixa contra a OpenAI, por alegadamente o ChatGPT ter indicado um homem como sendo um assassino na Noruega.
O caso envolve um homem que, quando perguntou ao ChatGPT quem o mesmo era, a plataforma da OpenAI indicou que o mesmo seria um conhecido assassino, que tinha sido condenado a 21 anos de prisão por ter morto os seus dois filhos e tentou ainda matar o terceiro.
A resposta aparenta ter sido fornecida durante um momento de alucinação da plataforma, e que tentou mesmo incluir detalhes como o número de crianças que o mesmo teria, e o nome da cidade onde o caso supostamente aconteceu.
O homem ainda terá tentado contactar a OpenAI para retificar esta informação, visto ser incorreta, mas a empresa não terá procedido com mudanças. A Noyb defende que, face à legislação europeia de proteção de dados, os detentores dos seus direitos podem alterar e modificar os detalhes que considerem pertinentes, e que pode envolver as respostas que o ChatGPT forneça.
A entidade afirma ainda que a OpenAI não se pode defender apenas de uma pequena mensagem, adicionada na janela do ChatGPT, em como a informação fornecida pode nem sempre ser verdadeira.
Este não é o primeiro caso apresentado pela Noyb sobre situações parecidas, sendo que em Abril de 2024 a entidade também acusou o ChatGPT de fornecer informação incorreta relativamente às datas de nascimento de várias celebridades.
Em resposta, a OpenAI afirma que não pode alterar os dados que se encontram no modelo de IA, e que apenas pode bloquear certos pedidos de serem realizados. Resta saber agora se os tribunais vão ter em conta essa ideia.
Nenhum comentário
Seja o primeiro!