
A inteligência artificial generativa transformou radicalmente a forma como interagimos com a internet, mas a tecnologia está longe de ser infalível. As chamadas "alucinações" — momentos em que a IA inventa factos ou apresenta informações incorretas com total confiança — continuam a ser um obstáculo significativo. Agora, a Google parece estar a tomar medidas diretas para resolver este problema, contratando engenheiros especificamente dedicados a verificar e melhorar a qualidade das respostas geradas pelo seu motor de busca.
Uma nova equipa para garantir a fiabilidade
A gigante tecnológica está ativamente a recrutar para a função de "Engenheiro de Software Sénior" para a equipa de "Qualidade de Respostas de IA na Pesquisa". O objetivo é claro: elevar o padrão dos "AI Overviews" (os resumos gerados por inteligência artificial que aparecem no topo dos resultados) e garantir que a informação apresentada é fidedigna.
Conforme detalhado numa oferta de emprego recentemente descoberta, a empresa afirma estar a "reimaginar o que significa pesquisar informação – de qualquer forma e em qualquer lugar". Para tal, a Google necessita de resolver "desafios de engenharia complexos" e expandir a sua infraestrutura, mantendo uma experiência útil e acessível em que os utilizadores possam confiar.
Os profissionais que integrarem esta equipa terão a missão de ajudar a entregar resumos de IA precisos, mesmo para as "consultas difíceis e complicadas" dos utilizadores, tanto na página de resultados tradicional como no novo "Modo IA". Esta é uma das primeiras vezes que a empresa reconhece, de forma indireta através de uma contratação, a necessidade premente de intervenção humana e técnica para corrigir as falhas da sua tecnologia.
Quando a tecnologia inventa factos
A aposta na qualidade surge num momento crítico. A Google tem vindo a forçar cada vez mais a integração destes resumos automáticos na experiência dos utilizadores, expandindo-os até para o feed do Discover e reescrevendo títulos de notícias. No entanto, a tecnologia ainda apresenta arestas por limar.
Existem relatos frequentes de inconsistências. Por exemplo, ao pesquisar sobre a avaliação financeira de uma determinada startup, a inteligência artificial pode apresentar valores drasticamente diferentes — como 4 milhões ou 70 milhões de dólares — dependendo apenas de ligeiras variações na formulação da pergunta. Mais grave ainda, ao cruzar a informação com as fontes citadas pela própria ferramenta, verifica-se muitas vezes que os dados apresentados nem sequer constam nos links originais.
Além de erros financeiros, preocupações mais sérias foram levantadas recentemente, com relatos de que os resumos automáticos estariam a oferecer conselhos de saúde enganadores ou incorretos. Dado que muitos utilizadores tendem a confiar na informação que aparece destacada no topo da pesquisa, a precisão destes sistemas não é apenas uma questão técnica, mas de responsabilidade informativa.










Nenhum comentário
Seja o primeiro!