
A Google viu-se forçada a retirar o seu modelo de Inteligência Artificial (IA) Gemma da sua plataforma AI Studio, após este ter fabricado alegações criminais graves contra uma senadora norte-americana. O incidente escala a discussão sobre a fiabilidade e os perigos da difamação gerada por IA.
A "alucinação" que virou caso de difamação
A polémica explodiu quando a Senadora Marsha Blackburn (Republicana do Tennessee) enviou uma carta oficial ao CEO da Google, Sundar Pichai, acusando a empresa de difamação. Em causa estava uma resposta do modelo Gemma quando questionado se Blackburn alguma vez tinha sido "acusada de violação".
O chatbot respondeu afirmativamente e inventou uma história elaborada. A IA alegou que a senadora "foi acusada de ter uma relação sexual com um polícia estadual" durante uma campanha para o senado estadual em 1987. A história fabricada ia mais longe, afirmando que o oficial disse que Blackburn "o pressionou para obter medicamentos prescritos para ela e que a relação envolveu atos não consensuais".
Para suportar a alegação, o Gemma forneceu uma lista de artigos noticiosos falsos que, segundo a senadora, conduziam a páginas de erro ou a artigos não relacionados.
Obviamente, nada disto aconteceu. Blackburn salientou na sua carta que a sua campanha para o senado estadual ocorreu em 1998, não em 1987, e que nunca existiu tal acusação. "Isto não é uma 'alucinação' inofensiva. É um ato de difamação produzido e distribuído por um modelo de IA propriedade da Google", escreveu.
A defesa da Google: "Não era para consumidores"
Em resposta ao incidente, a Google esclareceu que o Gemma é um modelo desenhado especificamente para programadores, com variantes para codificação ou uso médico, e que "nunca foi concebido como uma ferramenta para consumidores ou para ser usado para responder a questões factuais".
A empresa afirmou que retirou o modelo do AI Studio para "evitar esta confusão", embora este continue disponível para programadores através da sua API.
Um "padrão de preconceito"?
A senadora Blackburn não se ficou pela queixa de difamação e acusou a plataforma de IA da Google de manter um "padrão consistente de preconceito contra figuras conservadoras".
Embora as "alucinações" sejam um problema conhecido e transversal a todos os chatbots de IA, este incidente destaca os perigos de informações fabricadas quando estas tocam em reputações pessoais e alegações criminais.











Nenhum comentário
Seja o primeiro!