O YouTube parece estar a seguir as pisadas potencialmente perigosas da Meta e do X (o antigo Twitter), ao flexibilizar as suas políticas de moderação de conteúdo. A plataforma está agora mais permissiva com vídeos que violam as suas próprias regras, desde que uma parte significativa do conteúdo seja considerada de "interesse público".
O que muda na moderação do YouTube?
De acordo com novos materiais de formação internos, a que o The New York Times teve acesso, os moderadores foram instruídos a manter online vídeos que violem as regras da plataforma até metade do seu conteúdo. Este valor representa um aumento significativo face ao limite anterior, que era de apenas um quarto do vídeo.
Esta nova política terá sido introduzida em meados de dezembro, curiosamente apenas um mês após a reeleição do Presidente Trump nos Estados Unidos.
O "interesse público" como justificação
As novas diretrizes refletem aquilo que o YouTube considera ser de "interesse público". Estas áreas abrangem tópicos sensíveis como o debate sobre eleições, movimentos sociais, raça, género, imigração, entre outros.
"Ao reconhecer que a definição de 'interesse público' está sempre a evoluir, atualizamos a nossa orientação para estas exceções de modo a refletir os novos tipos de discussão que vemos hoje na plataforma", afirmou Nicole Bell, porta-voz do YouTube, ao jornal norte-americano. "O nosso objetivo continua a ser o mesmo: proteger a liberdade de expressão no YouTube, ao mesmo tempo que mitigamos danos graves."
Desinformação e discurso de ódio permitidos em nome da liberdade de expressão
Na prática, o YouTube terá instruído os moderadores a dar prioridade à manutenção de conteúdo quando existe um conflito entre o risco de dano e a liberdade de expressão. Foram partilhados exemplos concretos desta nova abordagem.
Um dos casos mostrava um vídeo intitulado "RFK Jr. Delivers SLEDGEHAMMER Blows to Gene-Altering JABS", que continha a alegação falsa de que as vacinas contra a Covid-19 podiam alterar os genes humanos. A indicação dada aos moderadores foi que o interesse público do debate "superava o risco de dano", pelo que o vídeo deveria permanecer visível. Contudo, o vídeo em questão acabou por ser removido mais tarde por razões não especificadas.
Outros exemplos de conteúdo que foi autorizado a permanecer online incluíam um vídeo com uma ofensa dirigida a uma pessoa transgénero e outro em que um comentador discutia abertamente um fim gráfico e violento para o antigo presidente da Coreia do Sul, Yoon Suk Yeol.
Paradoxalmente, a plataforma afirma ter removido mais 22% de vídeos por conteúdo de ódio e abusivo este ano em comparação com o ano anterior. No entanto, não foram divulgados dados sobre o número total de vídeos denunciados ou quantos teriam sido eliminados ao abrigo das diretrizes antigas.
Nenhum comentário
Seja o primeiro!