1. TugaTech » Internet e Redes » Noticias da Internet e Mercados
  Login     Registar    |                      
Siga-nos

ChatGPT

Os utilizadores que recorrem ao ChatGPT para desabafos ou apoio emocional devem ter cautela. Segundo Sam Altman, CEO da OpenAI, a indústria de inteligência artificial ainda não resolveu como garantir a privacidade dos utilizadores em conversas mais sensíveis, uma vez que não existe confidencialidade médico-paciente quando o "médico" é um sistema de IA.

As declarações foram feitas durante um episódio recente do podcast This Past Weekend w/ Theo Von.

Um vazio legal com implicações na privacidade

Questionado sobre a interação da IA com o sistema legal atual, Altman destacou que a ausência de um enquadramento jurídico ou político para a inteligência artificial cria um problema sério: a falta de confidencialidade legal para as conversas dos utilizadores.

"As pessoas partilham os detalhes mais pessoais das suas vidas com o ChatGPT", afirmou Altman. "Especialmente os mais jovens, usam-no como terapeuta, como coach de vida; têm problemas de relacionamento e perguntam 'o que devo fazer?'". O CEO da OpenAI explica que, ao contrário do que acontece com um terapeuta, advogado ou médico, essas conversas não estão protegidas por sigilo profissional. "Ainda não resolvemos isso para quando se fala com o ChatGPT", admitiu.

Esta lacuna pode transformar-se numa enorme preocupação de privacidade, especialmente em contextos legais. Altman acrescentou que, em caso de processo judicial, a OpenAI seria legalmente obrigada a fornecer o conteúdo dessas conversas. "Acho que isso está muito errado. Deveríamos ter o mesmo conceito de privacidade para as conversas com IA que temos com um terapeuta", defendeu.

OpenAI luta nos tribunais pela privacidade dos dados

A empresa reconhece que a falta de privacidade pode ser um obstáculo à adoção em massa da sua tecnologia. Para além da enorme quantidade de dados online necessários para treinar os seus modelos, a OpenAI enfrenta agora pedidos para fornecer dados de chats de utilizadores em processos legais.

Atualmente, a OpenAI está a contestar uma ordem judicial no âmbito do seu processo com o The New York Times, que a obrigaria a guardar os chats de centenas de milhões de utilizadores do ChatGPT em todo o mundo, com exceção dos clientes do plano Enterprise.

Num comunicado no seu site, a OpenAI classificou esta ordem como "um exagero" e anunciou que iria recorrer. A empresa teme que, se um tribunal puder sobrepor-se às suas próprias decisões de privacidade de dados, isso possa abrir a porta a mais pedidos para fins de investigação criminal ou outras ações legais.

Este receio não é infundado. Nos últimos anos, a preocupação com os dados digitais aumentou à medida que a legislação em alguns locais começou a limitar liberdades anteriormente estabelecidas. Um exemplo marcante foi a anulação do caso Roe v. Wade nos EUA, que levou muitos utilizadores a migrarem para aplicações de monitorização do ciclo menstrual mais seguras ou para o Apple Health, que encriptava os seus registos.

Durante o podcast, o próprio Altman validou as preocupações do anfitrião, Theo Von, que admitiu usar pouco o chatbot por receio quanto à sua privacidade. "Acho que faz sentido... querer ter clareza sobre a privacidade antes de usar muito [o ChatGPT] — a clareza legal", concluiu Altman.




Aplicações do TugaTechAplicações TugaTechDiscord do TugaTechDiscord do TugaTechRSS TugaTechRSS do TugaTechSpeedtest TugaTechSpeedtest TugatechHost TugaTechHost TugaTech