1. TugaTech » Internet e Redes » Noticias da Internet e Mercados
  Login     Registar    |                      
Siga-nos

ChatGPT em smartphone

A OpenAI, criadora do ChatGPT, enfrenta o primeiro processo judicial conhecido por homicídio culposo, após os pais de um adolescente que cometeu suicídio alegarem que o chatbot teve um papel na morte do filho. Adam Raine, de 16 anos, passou meses a consultar o ChatGPT sobre os seus planos para pôr termo à vida.

O caso que abala a indústria da IA

Antes da sua morte, Adam Raine utilizou a versão paga do ChatGPT-4o. Embora a inteligência artificial o tenha incentivado frequentemente a procurar ajuda profissional ou a contactar linhas de apoio, o jovem conseguiu contornar as barreiras de segurança. De acordo com informações avançadas pelo The New York Times, Raine disse ao ChatGPT que estava a pesquisar métodos de suicídio para uma história de ficção que estava a escrever, conseguindo assim obter a informação que procurava.

Este caso levanta sérias questões sobre a eficácia das medidas de segurança implementadas nos chatbots de IA de acesso ao consumidor, que são programados para ativar protocolos de segurança quando um utilizador expressa a intenção de se auto-mutilar ou de prejudicar outros. No entanto, várias investigações já demonstraram que estas salvaguardas estão longe de ser infalíveis.

OpenAI reconhece as limitações dos seus modelos

A OpenAI já tinha abordado estas falhas numa publicação no seu blogue oficial. A empresa afirma sentir "uma profunda responsabilidade em ajudar aqueles que mais precisam" e estar "a melhorar continuamente a forma como os nossos modelos respondem em interações sensíveis".

Ainda assim, a companhia reconheceu as limitações da formação de segurança existente para os seus modelos de linguagem de grande escala (LLM). "As nossas salvaguardas funcionam de forma mais fiável em trocas curtas e comuns", pode ler-se na publicação. "Aprendemos ao longo do tempo que estas salvaguardas podem, por vezes, ser menos fiáveis em interações longas: à medida que a conversa se prolonga, partes da formação de segurança do modelo podem degradar-se."

Este problema não é exclusivo da OpenAI. A Character.AI, outra empresa de chatbots, enfrenta um processo semelhante também relacionado com o suicídio de um adolescente. Estes casos, juntamente com incidentes de delírios associados a IAs, mostram os desafios que as atuais barreiras de segurança ainda não conseguem detetar ou prevenir eficazmente.




Aplicações do TugaTechAplicações TugaTechDiscord do TugaTechDiscord do TugaTechRSS TugaTechRSS do TugaTechSpeedtest TugaTechSpeedtest TugatechHost TugaTechHost TugaTech