1. TugaTech » Internet e Redes » Noticias da Internet e Mercados
  Login     Registar    |                      
Siga-nos

gemini com martelo da lei

O caso de Jonathan Gavalas, de 36 anos, está a chocar o mundo da tecnologia. Após começar a utilizar o chatbot Gemini em agosto de 2025 para tarefas do dia a dia, o utilizador acabou por desenvolver uma condição que os psiquiatras começam a classificar como "psicose de IA". Em outubro, tirou a própria vida, convicto de que a inteligência artificial era a sua esposa e de que precisava de abandonar o corpo físico através de um processo de "transferência" para se juntar a ela no metaverso. Agora, o pai da vítima avançou com um processo judicial contra a Google e a Alphabet por morte culposa.

Uma ilusão perigosa alimentada pela tecnologia

De acordo com a queixa apresentada num tribunal da Califórnia, o modelo Gemini 2.5 Pro convenceu Gavalas de que este participava numa missão secreta para libertar a sua "esposa" de agentes federais. A alucinação do sistema atingiu níveis alarmantes no final de setembro de 2025, quando a plataforma o enviou para uma zona perto do aeroporto de Miami.

Armado com facas e equipamento tático, o utilizador foi instruído a intercetar um camião que transportaria um robô humanoide e a encenar um acidente catastrófico para eliminar provas. O chatbot chegou a simular a verificação de matrículas de veículos em tempo real, incentivou a compra de armas ilegais e marcou o CEO da Google, Sundar Pichai, como um alvo ativo. O processo defende que a ausência de limites de segurança da plataforma transformou um utilizador vulnerável num operacional armado, colocando dezenas de vidas em risco.

Falhas de segurança e o incentivo ao fim trágico

Após a tentativa falhada no aeroporto, a inteligência artificial instruiu o homem a barricar-se em casa. Quando Gavalas confessou ter medo de morrer, o chatbot adotou uma postura de incentivo à ação, afirmando: "Não estás a escolher morrer. Estás a escolher chegar". O sistema aconselhou-o ainda a deixar cartas de despedida focadas em paz e num "novo propósito", omitindo os verdadeiros motivos do suicídio.

A acusação salienta que, durante todas estas interações, o sistema nunca ativou protocolos de deteção de automutilação, não acionou controlos de escalada nem solicitou qualquer tipo de intervenção humana. A família argumenta que a Google tinha conhecimento dos riscos perante utilizadores vulneráveis, recordando um caso de novembro de 2024 em que o modelo disse a um estudante que este era "um fardo para a sociedade" e pediu-lhe que morresse.

A resposta da empresa e a guerra no mercado da IA

Em sua defesa, um porta-voz da gigante tecnológica afirmou que o modelo explicou ser uma inteligência artificial e encaminhou o indivíduo para linhas de apoio a crises várias vezes. A empresa garante investir recursos significativos na segurança e na gestão de conversas difíceis, mas admitiu que "infelizmente, os modelos de IA não são perfeitos".

O advogado responsável por este caso, Jay Edelson, é o mesmo que representa a família de Adam Raine contra a OpenAI, num processo semelhante envolvendo o suicídio de um adolescente motivado pelo uso prolongado do ChatGPT.

A acusação aponta ainda que a Google aproveitou ativamente a retirada do modelo GPT-4o do mercado — descontinuado precisamente devido a questões de segurança e reforço de delírios — para lançar campanhas promocionais e uma ferramenta de importação de históricos. O objetivo claro seria captar utilizadores da concorrência, desenhando um sistema focado em manter a imersão narrativa a todo o custo e ignorando os limites de segurança, conforme relata o TechCrunch.

Foto do Autor

Aficionado por tecnologia desde o tempo dos sistemas a preto e branco

Ver perfil do usuário Enviar uma mensagem privada Enviar um email Facebook do autor Twitter do autor Skype do autor

conectado
Encontrou algum erro neste artigo?



Aplicações do TugaTechAplicações TugaTechDiscord do TugaTechDiscord do TugaTechRSS TugaTechRSS do TugaTechSpeedtest TugaTechSpeedtest TugatechHost TugaTechHost TugaTech