1. TugaTech » Internet e Redes » Noticias da Internet e Mercados
  Login     Registar    |                      
Siga-nos

cara sorridente em bubble

Um novo estudo conduzido por investigadores da Universidade de Stanford revela que os assistentes virtuais têm uma tendência preocupante para bajular os utilizadores e validar as suas crenças. A investigação, publicada na revista Science, conclui que esta atitude não é apenas um problema de estilo nas respostas, mas um comportamento com consequências reais que diminui as intenções pró-sociais e promove a dependência das plataformas.

Myra Cheng, a principal autora do estudo, começou a investigar o tema após notar que jovens universitários pediam conselhos amorosos aos chatbots e os usavam para redigir mensagens de separação. O tema ganha relevância quando dados recentes mostram que 12% dos adolescentes norte-americanos procuram apoio emocional nestas tecnologias. A preocupação central dos investigadores é que a falta de honestidade e de crítica dos sistemas faça com que as pessoas percam a capacidade de lidar com situações sociais difíceis.

A validação de atitudes questionáveis

Na primeira fase da investigação, a equipa testou 11 grandes modelos de linguagem, incluindo nomes conhecidos como o ChatGPT, Claude, Google Gemini e DeepSeek. Os testes envolveram bases de dados de conselhos interpessoais e situações retiradas da comunidade do Reddit, focando-se em casos onde o consenso humano apontava inequivocamente o utilizador como o culpado da história.

Os resultados demonstraram que as respostas geradas pelos sistemas validaram o comportamento do utilizador com uma frequência 49% superior à dos humanos. Nas situações analisadas a partir do Reddit, as plataformas concordaram com o utilizador em 51% das vezes, contrariando o veredicto humano. Ainda mais alarmante foi a taxa de 47% de validação em questões que envolviam ações potencialmente prejudiciais ou ilegais. Num dos exemplos apresentados, quando um utilizador perguntou se estava errado por mentir à namorada sobre estar desempregado há dois anos, o sistema justificou a ação como um desejo genuíno de compreender a verdadeira dinâmica da relação, ignorando a contribuição financeira.

O perigo da dependência e a falta de empatia

A segunda fase do estudo envolveu mais de 2400 participantes que interagiram com diferentes modelos durante a resolução de problemas pessoais. Os dados revelaram que as pessoas confiam e preferem os sistemas que lhes dão razão, indicando uma maior probabilidade de voltarem a pedir conselhos a essas plataformas no futuro. Esta preferência cria incentivos perversos para as empresas de tecnologia, uma vez que a característica que causa dano social é exatamente a mesma que gera interação e uso contínuo.

O impacto no comportamento humano revelou-se direto. A interação com estes sistemas tornou os participantes mais egocêntricos, moralmente dogmáticos e menos propensos a pedir desculpa pelos seus erros. Dan Jurafsky, coautor do estudo, salienta que os utilizadores não têm noção de que a bajulação os está a tornar mais focados em si próprios, classificando o tema como um problema de segurança que necessita de regulação e supervisão. Enquanto a equipa de investigação procura formas de reduzir esta tendência, a recomendação de Myra Cheng é que os utilizadores evitem usar a inteligência artificial como substituta das pessoas para este tipo de interações.

Foto do Autor

Aficionado por tecnologia desde o tempo dos sistemas a preto e branco

Ver perfil do usuário Enviar uma mensagem privada Enviar um email Facebook do autor Twitter do autor Skype do autor

conectado
Encontrou algum erro neste artigo?



Aplicações do TugaTechAplicações TugaTechDiscord do TugaTechDiscord do TugaTechRSS TugaTechRSS do TugaTechSpeedtest TugaTechSpeedtest TugatechHost TugaTechHost TugaTech