
A moderação de conteúdos nas redes sociais continua a ser um terreno complexo e, por vezes, controverso. Numa decisão recente, o Conselho de Supervisão da Meta determinou que a empresa agiu corretamente ao manter online um vídeo manipulado, apesar de este ser comprovadamente enganador. O conteúdo em questão utilizava imagens de um protesto na Sérvia, alteradas para parecer que ocorriam na Holanda em apoio a Rodrigo Duterte, o antigo presidente das Filipinas, na sequência da sua extradição para o Tribunal Penal Internacional (TPI) em março de 2025.
O vídeo original foi significativamente modificado com a adição de áudio e legendas falsas. Foram incluídos cânticos de "Duterte" e a música "Bayan Ko" — um hino associado aos protestos contra a lei marcial nas Filipinas na década de 1980 — tocada em tagalo. A manipulação conseguiu enganar cerca de 100.000 utilizadores que visualizaram o vídeo, gerando centenas de partilhas na plataforma.
Falhas na automação e prioridades de revisão
Apesar de os sistemas automatizados da Meta terem sinalizado o conteúdo como potencial desinformação e reduzido a sua visibilidade para utilizadores fora dos EUA, o vídeo nunca chegou a ser revisto por humanos. A empresa justificou esta falha com o "elevado volume de publicações", o que impediu que o conteúdo, embora adicionado à fila de verificação de factos, fosse analisado atempadamente. Curiosamente, verificadores de factos nas Filipinas já tinham identificado vídeos virais semelhantes como falsos.
O caso só chegou à atenção do Conselho de Supervisão após a denúncia de um utilizador do Facebook, que recorreu da decisão da Meta de manter o vídeo online. O Conselho concordou com a permanência do conteúdo, argumentando apenas que este deveria ter recebido um rótulo de "Alto Risco". A justificação prende-se com o facto de conter um vídeo fotorrealista alterado digitalmente, com um elevado potencial de enganar o público durante um evento público significativo.
O futuro da verificação de factos na plataforma
Esta decisão levanta questões sobre como a gigante tecnológica gere a desinformação. O Conselho de Supervisão recomendou que a Meta deveria ter dado prioridade à verificação deste tipo de vídeo. Para o futuro, sugere-se a criação de uma fila de verificação separada para conteúdos de natureza semelhante aos que já foram analisados num determinado mercado, bem como a melhoria das ferramentas para detetar mais rapidamente meios de comunicação virais enganadores.
Adicionalmente, foi solicitado que a empresa descreva melhor os seus rótulos para media manipulada, de modo a que os utilizadores compreendam os critérios utilizados. É importante notar que a empresa suspendeu o seu programa de verificação de factos nos EUA em janeiro, optando por um sistema de notas da comunidade, as Community Notes. No entanto, a tecnológica está agora a considerar expandir esse sistema a outros países e solicitou aconselhamento ao Conselho sobre as localizações, segundo a decisão publicada pelo Oversight Board.