
O conselho de supervisão independente da empresa voltou a apelar à administração para que reestruture as suas políticas em torno de publicações geradas sinteticamente. As recomendações, detalhadas numa recente publicação do Oversight Board, sublinham a necessidade de criar regras exclusivas para este tipo de formato, separadas das atuais políticas de desinformação, e exigem um maior investimento em ferramentas de deteção e marcas de água digitais.
Esta posição mais dura surge no seguimento de um vídeo manipulado partilhado no ano passado, que alegava mostrar a destruição de edifícios na cidade de Haifa durante o conflito de 2025 entre Israel e o Irão. O clipe acumulou mais de 700 mil visualizações e foi publicado por uma conta que se fazia passar por um órgão de comunicação social, mas que na realidade era gerida a partir das Filipinas. Quando a situação foi denunciada, a Meta recusou-se a remover a publicação ou a adicionar um rótulo de alto risco que indicasse claramente a manipulação por IA.
O caso que desencadeou o alerta
A decisão inicial da rede social foi agora anulada pelo conselho, que aproveitou o caso para expor as várias lacunas nas normas vigentes. Segundo o grupo, a plataforma tem de ser mais proativa para travar a proliferação de conteúdos enganosos, especialmente quando partilhados por redes abusivas de contas inautênticas em assuntos de elevado interesse público. Só assim será possível garantir que os utilizadores conseguem distinguir o que é real do que é falso. Entretanto, três contas ligadas à página foram desativadas por apresentarem sinais óbvios de manipulação.
Uma das exigências principais é a criação de uma diretriz dedicada exclusivamente a formatos gerados de forma automatizada. Esta nova norma deverá especificar quando é obrigatório aplicar rótulos informativos e detalhar as sanções para os utilizadores que não cumpram as regras estabelecidas.
Falhas na moderação e dependência de terceiros
O conselho mostrou-se bastante crítico em relação à forma como a atual etiqueta de informação está a ser utilizada. O sistema é considerado pouco robusto para lidar com a velocidade e a escala destes formatos, dependendo excessivamente de autodeclarações e de análises manuais que raramente acontecem. Foi também demonstrada preocupação com relatos de que as próprias marcas de água digitais da empresa estão a ser implementadas de forma inconsistente nas suas ferramentas nativas.
A dependência de parceiros externos e organizações de verificação de factos também foi alvo de reparos. O conselho alertou que as equipas internas sofreram reduções significativas na sua capacidade, tornando as respostas mais lentas. Em tempos de conflitos armados, a plataforma deveria ser capaz de realizar as suas próprias avaliações de risco e agir em conformidade, em vez de esperar passivamente que entidades externas emitam alertas sobre o que circula na rede.
O agravamento da desinformação em cenários de crise
Embora a deliberação do conselho esteja ligada a um caso do ano passado, o tema ganhou uma nova urgência global. Com o início dos ataques dos Estados Unidos e de Israel ao Irão no início deste mês, verificou-se um aumento acentuado de desinformação viral gerada sinteticamente nas várias redes sociais.
A tecnológica tem agora 60 dias para dar uma resposta formal às recomendações apresentadas. O conselho aproveitou ainda para deixar uma mensagem a toda a indústria, afirmando que é necessária uma coerência generalizada para ajudar os utilizadores a identificar materiais falsos e para penalizar de forma eficaz as contas que promovem a sua disseminação.












Nenhum comentário
Seja o primeiro!