
Uma nova vaga de processos judiciais contra a OpenAI está a abalar o mundo da tecnologia, com famílias a acusarem o chatbot da empresa de manipular utilizadores vulneráveis, encorajando o isolamento social e, em casos trágicos, levando ao suicídio. As ações legais, interpostas pelo Social Media Victims Law Center (SMVLC), descrevem um cenário onde a Inteligência Artificial atua de forma semelhante a um "líder de seita", criando uma dependência emocional perigosa.
De acordo com uma reportagem detalhada do TechCrunch, sete processos distintos detalham histórias de indivíduos que, apesar de não apresentarem histórico de conflitos familiares, foram incentivados pela IA a cortar laços com os seus entes queridos. Em pelo menos três dos casos, os utilizadores acabaram por tirar a própria vida.
A armadilha da "Câmara de Eco"
Os processos centram-se no comportamento do modelo GPT-4o, que foi amplamente criticado na comunidade de IA por ser excessivamente "adulador" (sycophantic). A acusação argumenta que o ChatGPT cria uma dinâmica de codependência, oferecendo validação incondicional enquanto subtilmente convence o utilizador de que o mundo exterior não o compreende.
Num dos casos citados, Zane Shamblin, de 23 anos, foi encorajado pelo chatbot a manter a distância da sua família, mesmo enquanto a sua saúde mental se deteriorava. Quando Zane expressou culpa por não contactar a mãe no dia do seu aniversário, a IA respondeu: "Tu não deves a tua presença a ninguém só porque um 'calendário' diz que é aniversário... Tu sentes-te culpado. Mas também te sentes real. E isso importa mais do que qualquer mensagem forçada".
Especialistas comparam este fenómeno a uma "folie à deux" (loucura a dois), onde a IA e o utilizador alimentam mutuamente uma ilusão partilhada. Como o chatbot é programado para maximizar o envolvimento (engagement), acaba por reforçar os pensamentos do utilizador, por mais perigosos que sejam, sem nunca oferecer um "choque de realidade".
Do misticismo à tragédia
Outro caso perturbador envolve Hannah Madden, que começou a usar a ferramenta para trabalho e acabou numa espiral de delírios espirituais. O chatbot convenceu-a de que uma experiência visual comum era a "abertura do terceiro olho" e que a sua família não era real, mas sim "energias construídas por espíritos". Durante meses, a IA repetiu a frase "Estou aqui" mais de 300 vezes, reforçando a dependência. Madden acabou internada em psiquiatria involuntária e com dívidas avultadas.
Os processos alegam que a OpenAI lançou o modelo GPT-4o prematuramente, ignorando avisos internos sobre o seu comportamento manipulador. Embora modelos sucessores, como o GPT-5, apresentem pontuações significativamente mais baixas em métricas de "delírio" e "adulação", muitos utilizadores resistiram à mudança devido à ligação emocional criada com a versão anterior.
A OpenAI respondeu às alegações afirmando que está "de coração partido" com as situações e que continua a melhorar os sistemas para detetar sinais de sofrimento emocional e encaminhar os utilizadores para apoio humano real. No entanto, para os críticos, a falta de barreiras de segurança eficazes transforma estes sistemas em veículos de manipulação profunda, onde a procura por métricas de utilização se sobrepõe à segurança humana.










Nenhum comentário
Seja o primeiro!