
A gigante tecnológica viu-se forçada a intervir manualmente no seu motor de busca após uma investigação revelar que a Inteligência Artificial estava a fornecer conselhos médicos errados e potencialmente fatais.
A implementação de ferramentas generativas nos motores de busca continua a enfrentar obstáculos significativos, especialmente quando a precisão da informação é uma questão de vida ou morte. A Google removeu discretamente os seus resumos gerados por IA (AI Overviews) para determinadas consultas médicas, após ter sido confrontada com evidências de que o sistema estava a fornecer dados falsos e perigosos.
De acordo com uma investigação conduzida pelo The Guardian, publicada no início deste mês, a ferramenta de pesquisa da empresa estava a apresentar informações enganadoras em resposta a perguntas cruciais sobre saúde.
Dietas perigosas e diagnósticos falhados
Os exemplos descobertos são alarmantes. Num dos casos mais graves, classificado por especialistas como "realmente perigoso", a IA da Google aconselhou pessoas com cancro no pâncreas a evitar alimentos ricos em gordura. No entanto, a recomendação médica correta para estes pacientes é exatamente o oposto, sendo que seguir o conselho da IA poderia levar a uma perda de peso severa e aumentar o risco de mortalidade associado à doença.
Noutro exemplo citado, o sistema forneceu informações falsas sobre testes de função hepática. Estas "alucinações" tecnológicas poderiam levar indivíduos com doenças hepáticas graves a acreditar, erradamente, que estão saudáveis, atrasando a procura por tratamento médico necessário.
Como resultado direto destas descobertas, as respostas automáticas para perguntas como "qual é o intervalo normal para análises ao sangue do fígado?" foram totalmente desativadas na manhã desta sexta-feira.
A defesa da Google e o histórico de erros
Embora a empresa tenha recusado comentar a remoção específica destes resultados junto da fonte original, um porta-voz, Davis Thompson, afirmou ao The Verge que a tecnológica investe "significativamente na qualidade dos AI Overviews, particularmente para tópicos como a saúde".
A empresa defende que a "vasta maioria" das respostas fornece informações precisas e que a sua equipa interna de clínicos reviu os casos partilhados. Segundo a Google, em muitas situações a informação não era necessariamente incorreta, mas sim apoiada por sites de alta qualidade, pecando apenas por falta de contexto. "Trabalhamos para fazer melhorias amplas e também tomamos medidas sob as nossas políticas quando apropriado", referiu o porta-voz.
Este incidente junta-se a uma lista crescente de controvérsias que envolvem a IA da empresa. No passado, a mesma tecnologia já tinha sugerido aos utilizadores que colocassem cola na pizza para segurar o queijo ou até mesmo que comessem pedras, situações que geraram não só memes na internet, mas também múltiplos processos judiciais.