1. TugaTech » Internet e Redes » Noticias da Internet e Mercados
  Login     Registar    |                      
Siga-nos

Logo da Meta associado a conteúdo de violência

 

A Meta publicou o primeiro dos seus relatórios trimestrais de integridade desde que Mark Zuckerberg alterou as políticas de discurso de ódio da empresa e a sua abordagem à moderação de conteúdo no início deste ano. Segundo os dados divulgados, o Facebook assistiu a um aumento de conteúdo violento, bem como de bullying e assédio, apesar de uma diminuição geral na quantidade de conteúdo removido pela gigante tecnológica.

 

Estes relatórios são a primeira vez que a Meta partilha dados sobre o impacto das decisões de Zuckerberg, que reformularam as políticas da empresa, na plataforma utilizada por milhares de milhões de pessoas. Curiosamente, a empresa apresenta estas mudanças como uma vitória, afirmando que reduziu os seus erros para metade, enquanto a prevalência geral de conteúdo que infringe as suas regras "permaneceu praticamente inalterada na maioria das áreas problemáticas".

 

Aumento preocupante em áreas sensíveis

 

No entanto, existem duas exceções notórias a esta estabilidade. A visualização de conteúdo violento e explícito aumentou de uma faixa de 0,06%-0,07% no final de 2024 para 0,09% no primeiro trimestre de 2025. A Meta atribuiu este crescimento a "um aumento na partilha de conteúdo infrator", bem como às suas próprias tentativas de "reduzir erros de aplicação" das políticas.

 

A Meta também observou um aumento significativo na prevalência de bullying e assédio no Facebook, que passou de 0,06%-0,07% no final de 2024 para 0,07%-0,08% no início de 2025. A empresa justifica esta subida com um "pico" não especificado de violações em março. É importante notar que esta categoria é distinta das políticas de discurso de ódio da empresa, que foram reescritas para permitir publicações que visam imigrantes e pessoas LGBTQ.

Embora estas percentagens possam parecer relativamente pequenas, mesmo pequenos aumentos podem ser percetíveis numa plataforma como o Facebook, que regista milhares de milhões de publicações todos os dias. A Meta descreve a sua métrica de prevalência como uma estimativa da frequência com que conteúdo que viola as regras aparece na sua plataforma.

 

Menos conteúdo removido, mas menos erros?

 

O relatório sublinha também a significativa redução na quantidade de conteúdo que a Meta está a remover globalmente desde que abandonou a aplicação proativa da maioria das suas políticas, exceto as mais graves como exploração infantil e conteúdo terrorista. Os dados da Meta mostram uma diminuição acentuada no número de publicações do Facebook removidas por conteúdo de ódio, por exemplo, com apenas 3,4 milhões de conteúdos "acionados" ao abrigo desta política, o valor mais baixo da empresa desde 2018.

 

As remoções de spam também caíram drasticamente, de 730 milhões no final de 2024 para apenas 366 milhões no início de 2025. O número de contas falsas removidas também diminuiu notavelmente no Facebook, de 1,4 mil milhões para 1 milhar de milhão (a Meta não fornece estatísticas sobre remoções de contas falsas no Instagram).

 

Simultaneamente, a Meta afirma estar a cometer muito menos erros de moderação de conteúdo, o que foi uma das principais justificações de Zuckerberg para a sua decisão de acabar com a moderação proativa. "Observámos uma redução de aproximadamente 50% nos erros de aplicação nas nossas plataformas nos Estados Unidos do quarto trimestre de 2024 para o primeiro trimestre de 2025", escreveu a empresa numa atualização à sua publicação de janeiro que anunciava as alterações às políticas. A Meta não explicou como calculou este valor, mas disse que relatórios futuros "incluirão métricas sobre os nossos erros para que as pessoas possam acompanhar o nosso progresso".

 

Adolescentes continuam a ser uma prioridade na moderação

 

A Meta reconhece, no entanto, que existe pelo menos um grupo onde alguma moderação proativa ainda é necessária: os adolescentes. "Ao mesmo tempo, continuamos empenhados em garantir que os adolescentes nas nossas plataformas tenham a experiência mais segura possível", escreveu a empresa. "É por isso que, para os adolescentes, também continuaremos a ocultar proativamente outros tipos de conteúdo prejudicial, como o bullying." A Meta tem vindo a implementar "contas para adolescentes" nos últimos meses, o que deverá facilitar a filtragem de conteúdo especificamente para utilizadores mais jovens.

 

Inteligência artificial e o futuro da moderação

 

A empresa também forneceu uma atualização sobre como está a utilizar modelos de linguagem de grande escala (LLMs) para auxiliar nos seus esforços de moderação de conteúdo. "Após testes adicionais, estamos a começar a ver LLMs a operar para além do desempenho humano em áreas políticas selecionadas", escreve a Meta. "Também estamos a usar LLMs para remover conteúdo das filas de revisão em certas circunstâncias, quando estamos altamente confiantes de que não viola as nossas políticas."

 

Mudanças no sistema de verificação de factos

 

O outro componente principal das alterações políticas de Zuckerberg foi o fim das parcerias de verificação de factos (fact-checking) da Meta nos Estados Unidos. A empresa começou a implementar a sua própria versão de Community Notes no Facebook, Instagram e Threads no início deste ano, e desde então expandiu o esforço para o Reels e respostas no Threads. A Meta não ofereceu qualquer perspetiva sobre a eficácia da sua nova abordagem de verificação de factos baseada na comunidade, nem sobre a frequência com que as notas estão a aparecer na sua plataforma, embora tenha prometido atualizações nos próximos meses.




Aplicações do TugaTechAplicações TugaTechDiscord do TugaTechDiscord do TugaTechRSS TugaTechRSS do TugaTechSpeedtest TugaTechSpeedtest TugatechHost TugaTechHost TugaTech