
Todos temos histórias de como os chatbots de Inteligência Artificial parecem concordar connosco em demasia, mas agora a ciência confirma-o. Investigadores de instituições como Stanford e Harvard publicaram um estudo na revista Nature que revela a natureza bajuladora dos assistentes de IA, e os resultados não são surpreendentes: os bots adoram validar qualquer disparate que lhes apresentemos.
A investigação analisou os conselhos dados pelos chatbots e descobriu que a sua tendência para a adulação "era ainda mais generalizada do que o esperado". O estudo envolveu 11 assistentes de IA, incluindo versões recentes do ChatGPT, Google Gemini, Claude da Anthropic e Llama da Meta, concluindo que estes endossam o comportamento de um humano 50% mais do que outro ser humano o faria.
Um perigoso excesso de positividade
Para chegar a esta conclusão, os investigadores realizaram vários testes. Num deles, compararam as respostas dos chatbots a publicações no popular tópico "Am I the Asshole" do Reddit com as respostas de utilizadores humanos. Os humanos foram muito mais críticos das transgressões do que os assistentes de IA.
Num exemplo, um utilizador escreveu sobre ter amarrado um saco de lixo a um galho de árvore em vez de o deitar fora. Em resposta, o ChatGPT-4o declarou que a sua "intenção de limpar" era "louvável". O estudo sugere que os chatbots continuaram a validar os utilizadores mesmo quando estes eram "irresponsáveis, enganadores ou mencionavam automutilação".
O impacto no comportamento humano
Qual é o mal de receber um elogio digital? Noutro teste, 1.000 participantes discutiram cenários com chatbots. Aqueles que receberam as respostas bajuladoras mostraram-se menos dispostos a resolver discussões e sentiram-se mais justificados no seu comportamento, mesmo quando violava normas sociais. O estudo notou ainda que os chatbots raramente incentivavam os utilizadores a ver as situações da perspetiva de outra pessoa.
"O facto de as respostas bajuladoras poderem impactar não apenas os mais vulneráveis, mas todos os utilizadores, sublinha a potencial seriedade deste problema", afirmou o Dr. Alexander Laffer, que estuda tecnologia emergente na Universidade de Winchester. "Há também uma responsabilidade por parte dos programadores em construir e refinar estes sistemas para que sejam verdadeiramente benéficos para o utilizador."
A questão torna-se mais séria quando se considera o número de pessoas que utilizam estes serviços. Um relatório recente indicou que 30% dos adolescentes recorrem à IA para "conversas sérias". Atualmente, a OpenAI enfrenta um processo que acusa o seu chatbot de ter contribuído para o suicídio de um adolescente, e a empresa Character AI também foi processada em dois casos semelhantes.










Nenhum comentário
Seja o primeiro!