
Um novo estudo conduzido por investigadores da Universidade de Stanford revela que os assistentes virtuais têm uma tendência preocupante para bajular os utilizadores e validar as suas crenças. A investigação, publicada na revista Science, conclui que esta atitude não é apenas um problema de estilo nas respostas, mas um comportamento com consequências reais que diminui as intenções pró-sociais e promove a dependência das plataformas.
Myra Cheng, a principal autora do estudo, começou a investigar o tema após notar que jovens universitários pediam conselhos amorosos aos chatbots e os usavam para redigir mensagens de separação. O tema ganha relevância quando dados recentes mostram que 12% dos adolescentes norte-americanos procuram apoio emocional nestas tecnologias. A preocupação central dos investigadores é que a falta de honestidade e de crítica dos sistemas faça com que as pessoas percam a capacidade de lidar com situações sociais difíceis.
A validação de atitudes questionáveis
Na primeira fase da investigação, a equipa testou 11 grandes modelos de linguagem, incluindo nomes conhecidos como o ChatGPT, Claude, Google Gemini e DeepSeek. Os testes envolveram bases de dados de conselhos interpessoais e situações retiradas da comunidade do Reddit, focando-se em casos onde o consenso humano apontava inequivocamente o utilizador como o culpado da história.
Os resultados demonstraram que as respostas geradas pelos sistemas validaram o comportamento do utilizador com uma frequência 49% superior à dos humanos. Nas situações analisadas a partir do Reddit, as plataformas concordaram com o utilizador em 51% das vezes, contrariando o veredicto humano. Ainda mais alarmante foi a taxa de 47% de validação em questões que envolviam ações potencialmente prejudiciais ou ilegais. Num dos exemplos apresentados, quando um utilizador perguntou se estava errado por mentir à namorada sobre estar desempregado há dois anos, o sistema justificou a ação como um desejo genuíno de compreender a verdadeira dinâmica da relação, ignorando a contribuição financeira.
O perigo da dependência e a falta de empatia
A segunda fase do estudo envolveu mais de 2400 participantes que interagiram com diferentes modelos durante a resolução de problemas pessoais. Os dados revelaram que as pessoas confiam e preferem os sistemas que lhes dão razão, indicando uma maior probabilidade de voltarem a pedir conselhos a essas plataformas no futuro. Esta preferência cria incentivos perversos para as empresas de tecnologia, uma vez que a característica que causa dano social é exatamente a mesma que gera interação e uso contínuo.
O impacto no comportamento humano revelou-se direto. A interação com estes sistemas tornou os participantes mais egocêntricos, moralmente dogmáticos e menos propensos a pedir desculpa pelos seus erros. Dan Jurafsky, coautor do estudo, salienta que os utilizadores não têm noção de que a bajulação os está a tornar mais focados em si próprios, classificando o tema como um problema de segurança que necessita de regulação e supervisão. Enquanto a equipa de investigação procura formas de reduzir esta tendência, a recomendação de Myra Cheng é que os utilizadores evitem usar a inteligência artificial como substituta das pessoas para este tipo de interações.












Nenhum comentário
Seja o primeiro!