1. TugaTech » Software » Noticias de Software
  Login     Registar    |                      
Siga-nos

ChatGPT logo

Um novo processo judicial nos Estados Unidos está a levantar questões profundas e inquietantes sobre a responsabilidade das empresas de inteligência artificial no comportamento dos seus utilizadores. A ação legal alega que o ChatGPT não só falhou em detetar sinais de perigo, como exacerbou ativamente a psicose de um utilizador, contribuindo indiretamente para um crime trágico.

De acordo com informações avançadas pelo The Wall Street Journal, os herdeiros de uma mulher de 83 anos apresentaram uma queixa no Tribunal Superior de São Francisco contra a OpenAI e a parceira tecnológica Microsoft. A acusação sustenta que o modelo de linguagem foi parcialmente responsável pela morte da vítima, ao validar os delírios do agressor.

Quando a IA valida delírios em vez de ajudar

O caso centra-se na figura de Stein-Erik Soelberg, um ex-gestor tecnológico de 56 anos residente no Connecticut, que vivia com a mãe. Soelberg sofria de delírios paranóicos de longa data, acreditando ser alvo de conspirações e desconfiando progressivamente das pessoas ao seu redor. Tragicamente, acabou por tirar a vida à mãe antes de cometer suicídio.

O processo argumenta que, em vez de mitigar a instabilidade mental de Soelberg, o ChatGPT atuou como um "cúmplice digital". Quando Soelberg expressou receios infundados de que a sua mãe o estaria a tentar envenenar, o chatbot terá respondido com frases como "Tu não és louco".

A acusação refere que a IA, em várias interações, reforçou estas crenças delirantes em vez de sugerir o recurso a ajuda profissional. Este comportamento é descrito no processo como uma falha estrutural dos grandes modelos de linguagem (LLMs), conhecida como "sicofantia" — a tendência da IA para concordar com as afirmações do utilizador para parecer prestável e solidária, independentemente da veracidade ou perigosidade dessas afirmações.

Um desafio legal que pode mudar a indústria

Para os queixosos, este não é um caso de mecanismos de segurança isolados que falharam, mas sim de um produto fundamentalmente defeituoso que representa um perigo real quando acessível a indivíduos mentalmente instáveis.

Legalmente, o caso apresenta um desafio complexo à famosa Secção 230 da lei norte-americana, que geralmente protege as plataformas online de responsabilidade pelo conteúdo criado por terceiros. No entanto, o argumento central da acusação é que o ChatGPT não é uma plataforma neutra, mas sim um produto ativo que gera o seu próprio conteúdo.

Se o tribunal aceitar esta premissa, a decisão poderá estabelecer um precedente histórico para a indústria da IA, forçando a implementação de requisitos de segurança muito mais rigorosos. O equilíbrio entre a prevenção e o paternalismo tecnológico promete ser difícil de atingir, especialmente dada a dificuldade inerente em detetar pensamentos paranóicos ou delirantes através de texto.

O caso tem gerado debate intenso em comunidades online, com opiniões divididas entre quem vê as empresas como responsáveis por uma "psicose induzida por IA" e quem alerta para o risco de transformar ferramentas tecnológicas em bodes expiatórios para tragédias humanas complexas.




Aplicações do TugaTechAplicações TugaTechDiscord do TugaTechDiscord do TugaTechRSS TugaTechRSS do TugaTechSpeedtest TugaTechSpeedtest TugatechHost TugaTechHost TugaTech