O Conselho de Supervisão da Meta considera que existe um grave problema sobre o Facebook, nomeadamente na forma como a plataforma remove imagens da plataforma e sobre os motivos para tal.
De acordo com o Conselho, citado pelo portal The Verge, a Meta é aconselhada a ter mais cuidado na remoção de conteúdos da sua plataforma, sobretudo imagens, usando ferramentas automáticas, uma vez que estas podem não conseguir avaliar corretamente alguns conteúdos que são reportados. Um dos exemplos encontra-se sobre recentes imagens na Colômbia, que seriam cartoons mas foram removidos pela plataforma por terem sido consideradas atos de violência policial.
Esta imagem, que não seria considerada uma violação das regras da plataforma, ainda mais por se tratar de um desenho, foi colocada no sistema de remoção automática da Meta, conhecido como “Media Matching Service”, para que fosse automaticamente removida da plataforma quando os utilizadores a publicavam.
Para crédito da empresa, foi indicado que a maioria dos utilizadores que tinham os conteúdos removidos, ao apelarem, na maioria dos casos as imagens eram republicadas sem problemas. Mas terá demorado semanas até que a imagem foi finalmente removida dos sistemas de moderação do Facebook.
O Conselho de Supervisão da Meta considera que, ao usar ferramentas automáticas de moderação como a Media Matching Service, existe a possibilidade de conteúdos enviados para o mesmo incorretamente por moderadores humanos podem ser amplificados com efeitos reais para o mundo. A entidade acredita que o sistema poderia ser reformulado para ser mais seguro ou para avaliar melhor estes conteúdos.
Como exemplo, a Meta poderia implementar um sistema que, no caso de um conteúdo ser reportado e removido derivado a estar presente no sistema, caso tivesse uma taxa elevada de sucesso quando os utilizadores apelassem, o conteúdo original poderia ser colocado para nova avaliação por parte dos moderadores.
A entidade afirma ainda que o sistema conta com erros constantes que necessitam de ser endereçados, e que não podem ser substituídos por moderadores humanos. Apesar de as ferramentas automáticas ajudarem na moderação, ainda é necessário implementar formas de corrigir eventuais erros que possam surgir.
Nenhum comentário
Seja o primeiro!