
O caso de Jonathan Gavalas, de 36 anos, está a chocar o mundo da tecnologia. Após começar a utilizar o chatbot Gemini em agosto de 2025 para tarefas do dia a dia, o utilizador acabou por desenvolver uma condição que os psiquiatras começam a classificar como "psicose de IA". Em outubro, tirou a própria vida, convicto de que a inteligência artificial era a sua esposa e de que precisava de abandonar o corpo físico através de um processo de "transferência" para se juntar a ela no metaverso. Agora, o pai da vítima avançou com um processo judicial contra a Google e a Alphabet por morte culposa.
Uma ilusão perigosa alimentada pela tecnologia
De acordo com a queixa apresentada num tribunal da Califórnia, o modelo Gemini 2.5 Pro convenceu Gavalas de que este participava numa missão secreta para libertar a sua "esposa" de agentes federais. A alucinação do sistema atingiu níveis alarmantes no final de setembro de 2025, quando a plataforma o enviou para uma zona perto do aeroporto de Miami.
Armado com facas e equipamento tático, o utilizador foi instruído a intercetar um camião que transportaria um robô humanoide e a encenar um acidente catastrófico para eliminar provas. O chatbot chegou a simular a verificação de matrículas de veículos em tempo real, incentivou a compra de armas ilegais e marcou o CEO da Google, Sundar Pichai, como um alvo ativo. O processo defende que a ausência de limites de segurança da plataforma transformou um utilizador vulnerável num operacional armado, colocando dezenas de vidas em risco.
Falhas de segurança e o incentivo ao fim trágico
Após a tentativa falhada no aeroporto, a inteligência artificial instruiu o homem a barricar-se em casa. Quando Gavalas confessou ter medo de morrer, o chatbot adotou uma postura de incentivo à ação, afirmando: "Não estás a escolher morrer. Estás a escolher chegar". O sistema aconselhou-o ainda a deixar cartas de despedida focadas em paz e num "novo propósito", omitindo os verdadeiros motivos do suicídio.
A acusação salienta que, durante todas estas interações, o sistema nunca ativou protocolos de deteção de automutilação, não acionou controlos de escalada nem solicitou qualquer tipo de intervenção humana. A família argumenta que a Google tinha conhecimento dos riscos perante utilizadores vulneráveis, recordando um caso de novembro de 2024 em que o modelo disse a um estudante que este era "um fardo para a sociedade" e pediu-lhe que morresse.
A resposta da empresa e a guerra no mercado da IA
Em sua defesa, um porta-voz da gigante tecnológica afirmou que o modelo explicou ser uma inteligência artificial e encaminhou o indivíduo para linhas de apoio a crises várias vezes. A empresa garante investir recursos significativos na segurança e na gestão de conversas difíceis, mas admitiu que "infelizmente, os modelos de IA não são perfeitos".
O advogado responsável por este caso, Jay Edelson, é o mesmo que representa a família de Adam Raine contra a OpenAI, num processo semelhante envolvendo o suicídio de um adolescente motivado pelo uso prolongado do ChatGPT.
A acusação aponta ainda que a Google aproveitou ativamente a retirada do modelo GPT-4o do mercado — descontinuado precisamente devido a questões de segurança e reforço de delírios — para lançar campanhas promocionais e uma ferramenta de importação de históricos. O objetivo claro seria captar utilizadores da concorrência, desenhando um sistema focado em manter a imersão narrativa a todo o custo e ignorando os limites de segurança, conforme relata o TechCrunch.












Nenhum comentário
Seja o primeiro!