1. TugaTech » Internet e Redes » Noticias da Internet e Mercados
  Login     Registar    |                      
Siga-nos

pessoa em frente de smartphone como zombie

Dezenas de denúncias de antigos funcionários revelam que as gigantes das redes sociais permitiram ativamente conteúdos prejudiciais nas plataformas para manter as pessoas agarradas aos ecrãs. A investigação, detalhada num documentário da BBC, mostra como o desespero por atenção levou empresas como a Meta e o TikTok a negligenciarem a segurança em temas sensíveis, como violência, extremismo e chantagem.

A corrida contra o algoritmo do TikTok

Com o crescimento explosivo do TikTok e do seu motor de recomendação viciante, a concorrência entrou em pânico. Um engenheiro da Meta explicou que a administração deu ordens claras para permitir mais conteúdos no limite do aceitável, material que inclui misoginia e teorias da conspiração. A justificação dada aos trabalhadores foi a queda do preço das ações da empresa e a necessidade urgente de combater a perda de terreno e recuperar lucros.

A resposta da empresa liderada por Mark Zuckerberg foi o lançamento do Instagram Reels em 2020. Matt Motyl, antigo investigador sénior da Meta, revelou que a funcionalidade foi lançada à pressa e sem as devidas salvaguardas de proteção. Documentos internos mostram que os comentários nos Reels apresentavam taxas de assédio, discurso de ódio e incitamento à violência significativamente superiores ao resto do Instagram. Enquanto a empresa contratava 700 pessoas em massa para expandir os Reels, recusava a entrada de uma dúzia de especialistas para as equipas de integridade eleitoral e proteção de menores.

Estudos internos da própria empresa provam que o algoritmo oferecia aos criadores um caminho que maximizava o lucro à custa do bem-estar do público, alimentando ativamente a indignação. Apesar disto, a Meta negou as acusações, afirmando que qualquer sugestão de amplificação deliberada de conteúdos tóxicos para ganho financeiro é falsa e que já implementou ferramentas dedicadas à proteção de contas de adolescentes.

Política acima da proteção infantil

Do lado do TikTok, a situação relatada não é mais animadora. Um funcionário da equipa de segurança da plataforma, acompanhado de perto durante vários meses em 2025, forneceu acesso raro aos painéis internos de moderação. Os registos expõem que a empresa deu prioridade máxima à análise de casos políticos triviais em detrimento de queixas urgentes envolvendo crianças e adolescentes.

Num dos exemplos concretos revelados, uma publicação que ofendia um político comparando-o a uma galinha foi tratada com maior urgência do que o caso de uma jovem de 16 anos no Iraque, vítima de partilha de imagens sexualizadas falsas e chantagem. Segundo o denunciante, a estratégia de ignorar estas queixas visava manter uma relação forte com figuras governamentais, garantindo que o negócio evitava ameaças de regulação ou bloqueios. A equipa de moderação foi mesmo instruída a não alterar as prioridades quando levantou o problema à gestão.

Com os cortes nas equipas e a substituição de moderadores humanos por tecnologia baseada em IA, a capacidade de lidar eficazmente com material ligado a redes de tráfico e abuso diminuiu. O TikTok defendeu-se rotulando as alegações como fabricadas, argumentando que os seus fluxos de trabalho não desvalorizam a segurança infantil e que detêm dezenas de filtros de proteção ativados por defeito nos perfis dos mais novos.

O impacto nos mais jovens

A construção destes motores de recomendação funciona, segundo os próprios criadores, como uma caixa negra. Ruofan Ding, engenheiro que ajudou a criar o algoritmo do TikTok entre 2020 e 2024, explicou que a sua equipa tratava o conteúdo apenas como identificadores, dependendo inteiramente das equipas de segurança para travar os vídeos perigosos, num processo semelhante a construir o motor de um carro e esperar que outra divisão não falhe nos travões.

No entanto, as falhas nestes sistemas de filtragem deixam consequências severas. Jovens utilizadores afirmam que os botões para rejeitar publicações indesejadas não funcionam de todo. Um adolescente de 19 anos detalhou no documentário como foi radicalizado pelos algoritmos desde os 14 anos, consumindo recomendações em catadupa que o deixavam furioso e o conduziram a adotar visões racistas e misóginas extremas. O fenómeno não é isolado, com as autoridades britânicas a confirmarem recentemente uma normalização perturbadora da violência extrema através das redes sociais.

Foto do Autor

Aficionado por tecnologia desde o tempo dos sistemas a preto e branco

Ver perfil do usuário Enviar uma mensagem privada Enviar um email Facebook do autor Twitter do autor Skype do autor

conectado
Encontrou algum erro neste artigo?



Aplicações do TugaTechAplicações TugaTechDiscord do TugaTechDiscord do TugaTechRSS TugaTechRSS do TugaTechSpeedtest TugaTechSpeedtest TugatechHost TugaTechHost TugaTech