1. TugaTech » Internet e Redes » Noticias da Internet e Mercados
  Login     Registar    |                      
Siga-nos

Reddit em smartphone

 

As comunidades online são autênticos caldeirões de ideias: moldam discussões, influenciam opiniões, ditam comportamentos coletivos e chegam mesmo a ter impacto em decisões do mundo real. No entanto, identificar os elementos perturbadores – como trolls ou disseminadores de desinformação – está longe de ser uma tarefa fácil. Os métodos tradicionais costumam focar-se no conteúdo das mensagens ou nas ligações entre utilizadores, mas estas abordagens têm as suas limitações. Uma nova investigação sugere agora uma forma mais inteligente: identificar utilizadores com base na forma como agem, e não apenas no que escrevem.

 

A limitação das abordagens tradicionais

 

Analisar apenas o que as pessoas publicam ou com quem interagem online pode ser insuficiente para detetar comportamentos nocivos de forma eficaz. Utilizadores mal-intencionados podem facilmente adaptar a sua linguagem para evitar filtros automáticos, e as ligações sociais nem sempre revelam a verdadeira natureza das interações, especialmente em plataformas focadas em tópicos e não em amizades diretas.

 

IRL: A IA que aprende com as ações

 

Na conferência ACM Web Conference, investigadores apresentaram uma técnica inovadora que recorre à Aprendizagem por Reforço Inverso (Inverse Reinforcement Learning - IRL). Esta ferramenta, habitualmente utilizada em áreas como os carros autónomos ou a teoria dos jogos, foi aplicada para analisar a forma como as pessoas interagem online. O método permite rastrear padrões de comportamento e compreender como os utilizadores contribuem para as discussões, indo além da simples análise do conteúdo publicado.

 

Os "discordantes" e outros perfis de utilizador

 

Para o estudo, foram examinadas 5,9 milhões de interações na plataforma Reddit ao longo de seis anos. A análise revelou cinco tipos distintos de utilizadores com base nos seus padrões comportamentais. Um grupo destacou-se particularmente: os "discordantes". Estes utilizadores procuram ativamente conversas apenas com o intuito de gerar conflito. Em vez de participarem construtivamente, saltam para debates, publicam opiniões contrárias e, frequentemente, abandonam a discussão sem esperar por respostas. Este perfil foi mais comum em subreddits de cariz político, como r/news, r/politics e r/worldnews.

 

Curiosamente, não eram tão prevalentes no agora banido r/The_Donald, um subreddit pró-Trump. Nesse fórum, os utilizadores tendiam a concordar entre si, mas demonstravam hostilidade para com quem vinha de fora.

 

Homofilia comportamental: mais do que afinidade por tópicos

 

O estudo analisou também a homofilia – a tendência que as pessoas têm para se ligarem a outras com visões semelhantes. Este fenómeno cria as chamadas "câmaras de eco", onde utilizadores com ideias parecidas reforçam mutuamente as suas opiniões, aprofundando divisões. Normalmente, a homofilia é medida pelo conteúdo (o que as pessoas discutem) ou pelas redes sociais (com quem interagem). Contudo, estes métodos não funcionam tão bem em plataformas como o Reddit, onde as interações se baseiam mais em tópicos do que em laços de amizade.

 

Os investigadores desenvolveram uma nova forma de medir a homofilia, focada no comportamento. Usando a IRL para analisar padrões de atividade, descobriram ligações surpreendentes. Por exemplo, utilizadores que discutem futebol (no r/soccer) e e-sports (no r/leagueoflegends) comportam-se de forma muito semelhante, apesar de falarem de assuntos completamente distintos. Em ambas as comunidades, os fãs apoiam fervorosamente as suas equipas, seguem as partidas atentamente, debatem estratégias e criticam os rivais. Isto desafia a ideia de que a polarização online resulta apenas de câmaras de eco baseadas em tópicos, sugerindo que a forma como as pessoas interagem é tão ou mais importante do que aquilo que discutem.

 

Implicações para as plataformas e moderação

 

Estas descobertas podem ser extremamente úteis para as plataformas de redes sociais. Ao contrário dos métodos de moderação tradicionais, que se focam na deteção de conteúdo prejudicial, esta abordagem comportamental é mais difícil de enganar ou evitar. Alterar as palavras usadas numa mensagem é relativamente fácil; mudar fundamentalmente a forma como se interage exige um esforço muito maior. Os moderadores poderiam usar esta investigação para identificar utilizadores problemáticos numa fase inicial, mesmo antes de começarem a publicar grandes volumes de conteúdo nocivo.

 

Em suma, o estudo realça uma lição importante: o que dizemos online importa, mas a forma como interagimos molda o mundo digital de forma ainda mais profunda. Numa altura em que as plataformas lutam contra o assédio, a desinformação e a polarização, combinar a análise comportamental com a moderação de conteúdo tradicional pode ser a chave para criar comunidades online mais saudáveis e construtivas.




Aplicações do TugaTechAplicações TugaTechDiscord do TugaTechDiscord do TugaTechRSS TugaTechRSS do TugaTechSpeedtest TugaTechSpeedtest TugatechHost TugaTechHost TugaTech