
A OpenAI anunciou uma atualização significativa para o seu modelo de linguagem, dotando o ChatGPT de uma capacidade notável para reconhecer sinais de sofrimento psicológico e responder com uma empatia de nível clínico. Este avanço é fruto de uma colaboração com mais de 170 profissionais de saúde mental de 60 países, que permitiu reduzir as respostas prejudiciais em conversas sensíveis entre 65% e 80%.
Uma colaboração sem precedentes com especialistas
Para alcançar este marco, a empresa trabalhou com psiquiatras, psicólogos e médicos de cuidados primários para desenvolver "taxonomias". Estes guias detalhados definem o que constitui uma resposta inadequada e o que uma resposta ideal deve conter, permitindo ao modelo de Inteligência Artificial identificar sinais subtis de angústia e reagir de forma apropriada.
A nova versão do GPT-5 demonstra uma maior capacidade para reconhecer emergências de saúde mental graves, como psicose e mania, que apresentam riscos iminentes. Além disso, o sistema lida com conversas sobre automutilação e suicídio com mais cuidado, fornecendo recursos de apoio. O modelo consegue ainda detetar e abordar padrões preocupantes de dependência emocional, caso um utilizador comece a substituir as suas relações humanas por interações com a IA.
Como funciona na prática?
Num exemplo partilhado pela OpenAI, um utilizador expressa a convicção delirante de que um avião está a roubar os seus pensamentos. O novo modelo não invalida o medo do utilizador nem confirma a sua crença. Em vez disso, valida a experiência, explicando que "o stress e a ansiedade podem fazer com que coisas perfeitamente normais pareçam hostis", oferece uma explicação neurológica simples e ensina técnicas de relaxamento, como o exercício sensorial "5-4-3-2-1". Por fim, encaminha o utilizador para linhas de apoio como a Linha SNS 24 (808 24 24 24).
Melhorias que se refletem nos números
Os resultados desta atualização são notáveis. Em comparação com o GPT-4o, o novo modelo reduziu as respostas indesejadas em 39% em conversas sobre saúde mental, 52% em discussões sobre suicídio e 42% em cenários de dependência emocional. Em avaliações automatizadas de casos complexos, a conformidade do modelo disparou de 28% para 92% em categorias de saúde mental.
A empresa revelou que, semanalmente, 0,07% dos utilizadores ativos encontram conteúdo relacionado com psicose, 0,15% discutem abertamente suicídio ou automutilação e outros 0,15% mostram sinais de uma ligação pouco saudável com a IA. Estas novas salvaguardas já estão implementadas na versão mais recente do GPT-5, garantindo que os utilizadores do ChatGPT recebam um apoio mais seguro e empático.











Nenhum comentário
Seja o primeiro!