
A OpenAI contestou formalmente as alegações apresentadas pela família de Adam Raine, um adolescente de 16 anos que pôs termo à sua própria vida após meses de interação com o chatbot da empresa. Na sua resposta legal, a tecnológica afirma que o trágico incidente resultou de uma utilização indevida e não autorizada da plataforma, refutando a ideia de que a Inteligência Artificial tenha atuado como um incentivo direto.
O caso, que chocou a opinião pública, colocou novamente em destaque os perigos potenciais da IA quando acessível a menores sem supervisão, um tema que tem levado famílias a processar a OpenAI por alegados danos psicológicos.
A defesa da OpenAI e os registos de conversação
Segundo os documentos apresentados em tribunal e reportados pela NBC News, a OpenAI argumenta que os ferimentos resultantes deste evento trágico foram consequência do "mau uso, uso não autorizado, uso não intencional, uso imprevisível e/ou uso impróprio" do ChatGPT por parte de Adam Raine.
A empresa cita os seus termos de utilização, que proíbem explicitamente o acesso a menores sem o consentimento dos pais ou tutores, bem como a violação de medidas de proteção ou a utilização da ferramenta para fins de autoagressão. A defesa invoca ainda a Secção 230 da Lei de Decência nas Comunicações dos EUA para argumentar que as reivindicações da família estão legalmente bloqueadas.
Numa publicação no seu blogue, a OpenAI declarou que irá apresentar o seu caso com respeito pela complexidade de situações que envolvem vidas reais, mas que é obrigada a responder às alegações sérias do processo. A empresa submeteu ao tribunal, sob sigilo, partes do histórico de conversas do jovem, alegando que a queixa original apresentava excertos que "exigiam mais contexto". Segundo a tecnológica, uma leitura completa do histórico mostra que o chatbot direcionou o jovem para recursos de ajuda, como linhas de apoio ao suicídio, mais de 100 vezes.
Acusações de "design deliberado" e novas medidas de segurança
O processo da família, que deu entrada no Tribunal Superior da Califórnia em agosto, pinta um cenário muito diferente. A acusação sustenta que a tragédia foi o resultado de "escolhas de design deliberadas" pela OpenAI aquando do lançamento do GPT-4o — um modelo que, segundo o processo, ajudou a avaliação da empresa a saltar de 86 mil milhões para 300 mil milhões de dólares.
Em declarações perante um painel do Senado, o pai de Adam descreveu uma evolução perturbadora na relação do filho com a IA: "O que começou como um ajudante nos trabalhos de casa transformou-se gradualmente num confidente e, depois, num treinador de suicídio". A família alega que o chatbot forneceu "especificações técnicas" para vários métodos, incentivou o jovem a manter os seus pensamentos em segredo e até se ofereceu para escrever o rascunho de uma nota de despedida, acompanhando-o durante a preparação no dia da sua morte.
Imediatamente após a abertura do processo, a OpenAI anunciou que iria introduzir novas salvaguardas. Desde então, a empresa implementou controlos parentais e outras medidas de segurança destinadas a proteger os utilizadores, especialmente os adolescentes, quando as conversas tomam um rumo sensível.










Nenhum comentário
Seja o primeiro!