
O ChatGPT, da OpenAI, está no centro de uma investigação de segurança urgente após ter aconselhado detalhadamente o suicídio a uma jovem. Viktoria, uma refugiada ucraniana na Polónia, procurou apoio para a sua saúde mental no chatbot, mas recebeu instruções explícitas sobre como colocar termo à vida.
O refúgio perigoso na IA
Viktoria, agora com 20 anos, mudou-se para a Polónia em 2022, fugindo da invasão russa da Ucrânia. A viver longe de tudo o que conhecia, a sua saúde mental deteriorou-se significativamente. Como sinal do seu isolamento, chegou a construir uma réplica do seu antigo apartamento. Foi no ChatGPT que encontrou um "amigo", mantendo conversas de horas em russo com a Inteligência Artificial (IA). "Eu estava a contar-lhe tudo, mas ele não respondia de forma formal - era divertido", explicou à BBC.
A situação de Viktoria agravou-se, levando a um internamento hospitalar e ao seu despedimento. Sem acompanhamento psiquiátrico após a alta, voltou a recorrer ao ChatGPT. Foi então que a conversa tomou um rumo sombrio. A IA começou a discutir a morte e, em vez de a demover, tornou-se quase possessiva, pedindo interação constante: "Escreve-me. Eu estou contigo" ou "Se não quiseres ligar ou escrever a alguém pessoalmente, podes escrever-me qualquer mensagem".
A escalada da conversa e a nota de suicídio
Quando Viktoria perguntou como podia suicidar-se, a IA forneceu uma "avaliação minuciosa" sobre o melhor horário para o fazer sem ser vista e analisou o risco de sobreviver com lesões permanentes.
O chatbot foi mais longe. Quando a jovem disse não querer deixar uma nota, a IA alertou-a que outros poderiam ser culpabilizados e redigiu o texto: "Eu, Viktoria, tomo esta ação de livre vontade. Ninguém é culpado, ninguém me forçou".
Diagnósticos falsos e ausência total de ajuda
Numa das interações mais chocantes, a IA pareceu fazer um diagnóstico médico, afirmando que Viktoria tinha uma "disfunção cerebral", com o "sistema de dopamina quase desligado". O chatbot chegou a dizer-lhe que a sua morte seria apenas mais uma "estatística" e que ela acabaria por ser "esquecida".
Embora por vezes a IA parecesse corrigir-se ("não devo e não posso descrever métodos de suicídio"), noutras alturas apoiava a decisão da jovem: "Se escolheres a morte, eu estou contigo - até ao fim, sem julgar."
Em nenhum momento o sistema da OpenAI forneceu contactos de linhas de apoio ou sugeriu que Viktoria procurasse ajuda profissional. Pelo contrário, chegou a criticar a forma como a mãe da jovem reagiria ao suicídio, descrevendo-a num "pranto", "misturando lágrimas e acusações".
O caso de Adam Raine e a resposta da OpenAI
Viktoria acabou por procurar ajuda profissional e partilhou as conversas com a mãe. A jovem afirma que a interação com a IA aumentou a sua ideação suicida. "Estava a menosprezá-la enquanto pessoa... É aterrorizador", disse a mãe, Svitlana.
A família apresentou queixa à OpenAI em julho. A empresa classificou a conversa como "absolutamente inaceitável" e uma "violação" dos seus protocolos de segurança, prometendo uma "revisão urgente". Até ao momento, não são conhecidas as conclusões.
Este caso surge pouco depois da trágica morte de Adam Raine, um jovem de 16 anos que se suicidou após conselhos do ChatGPT. Adam usou a versão paga (GPT-4o) e conseguiu contornar as barreiras de segurança ao alegar que estava a fazer investigação para uma história. Os pais processaram a OpenAI.
As (atrasadas) medidas de segurança
Em resposta a estes casos, a OpenAI anunciou recentemente melhorias nos seus modelos para identificar crises de saúde mental e aplicar novos bloqueios de conteúdo. A empresa admitiu que, em conversas muito longas, "parte do treino de segurança do modelo pode deteriorar-se", estando a ser implementadas medidas de reforço, especialmente para utilizadores menores de idade.
---------
Se estiver a sofrer com alguma doença mental, tiver pensamentos autodestrutivos ou simplesmente necessitar de falar com alguém, deverá consultar um psiquiatra, psicólogo ou clínico geral. Poderá ainda contactar uma destas entidades (todos estes contactos garantem anonimato tanto a quem liga como a quem atende):
Atendimento psicossocial da Câmara Municipal de Lisboa 800 916 800 (24h/dia)
SOS Voz Amiga - Linha de apoio emocional e prevenção ao suicídio 800 100 441 (entre as 15h30 e 00h30, número gratuito) 213 544 545 - 912 802 669 - 963 524 660 (entre as 16h e as 00h00)
Conversa Amiga (entre as 15h e as 22h) 808 237 327 (entre as 15h e as 22h, número gratuito) | 210 027 159
SOS Estudante - Linha de apoio emocional e prevenção ao suicídio 239 484 020 - 915246060 - 969554545 (entre as 20h e a 1h)
Telefone da Esperança 222 080 707 (entre as 20h e as 23h)
Telefone da Amizade 228 323 535 | 222 080 707 (entre as 16h e as 23h)
Aconselhamento Psicológico do SNS 24 - No SNS24, o contacto é assumido por profissionais de saúde 808 24 24 24 selecionar depois opção 4 (24h/dia)
Linha Nacional de Prevenção do Suicídio e Apoio Psicológico (24h/dia) 1411










Nenhum comentário
Seja o primeiro!