1. TugaTech » Internet e Redes » Noticias da Internet e Mercados
  Login     Registar    |                      
Siga-nos

crânio em cima de smartphone

Conhece aquele velho ditado que diz para não acreditar em tudo o que vê na internet? Na era da Inteligência Artificial, este conselho nunca foi tão vital. Cody Roark, um jornalista que cobre a equipa dos Denver Broncos, teve uma surpresa desagradável no final de dezembro ao descobrir que, segundo as redes sociais, tinha falecido e deixado órfã uma criança de cinco anos.

O problema é que Roark está vivo e de boa saúde, e, tanto quanto sabe, nunca foi pai. No entanto, esta realidade não impediu que uma página no Facebook, denominada “Wild Horse Warriors”, publicasse uma imagem gerada por IA onde o jornalista aparecia a segurar uma criança, com a sigla “RIP” (Descansa em Paz) estampada em destaque.

Uma obituário falso e uma criança que não existe

A página, entretanto removida, descrevia Roark como um analista dedicado que protegera a equipa durante mais de uma década, alegando falsamente que o repórter tinha morrido na sequência de um "incidente de violência doméstica de partir o coração". Toda a narrativa, desde a morte trágica à existência da criança, foi uma fabricação completa de ferramentas de IA, conforme reportado pelo Denver Post.

Em entrevista, o jornalista confessou que a situação foi perturbadora. "É apenas uma daquelas coisas que odiamos ver", afirmou Roark, notando que este tipo de boatos bizarros costuma atingir celebridades de alto perfil, e não repórteres locais. "Acontecer-me a mim foi simplesmente muito estranho", concluiu.

A desinformação automatizada e os perigos reais

A conta responsável pela mentira tinha angariado cerca de 6.200 seguidores nos últimos meses e operava como uma autêntica fábrica de alucinações. Antes de ser banida pela plataforma, publicava uma média de quatro histórias completamente inventadas sobre os Denver Broncos por dia. Além do falso óbito de Roark, a página chegou a inventar que o jogador Courtland Sutton se tinha recusado a usar uma braçadeira de apoio à comunidade LGBTQ, um tipo de conteúdo falso com potencial para causar danos reais à reputação dos visados.

Este incidente não é um caso isolado, mas sim parte de um padrão preocupante gerado por sistemas automatizados. Recentemente, a visão geral de IA da Google cometeu um erro grave ao afirmar incorretamente que um músico folk canadiano era um agressor sexual condenado. Esse erro custou ao artista pelo menos um concerto e causou danos reputacionais difíceis de reparar, provando que as ferramentas tecnológicas atuais, nas mãos erradas ou sem supervisão, tornaram-se vetores potentes de desinformação.




Aplicações do TugaTechAplicações TugaTechDiscord do TugaTechDiscord do TugaTechRSS TugaTechRSS do TugaTechSpeedtest TugaTechSpeedtest TugatechHost TugaTechHost TugaTech