
A plataforma de vídeos anunciou a expansão da sua tecnologia de deteção de rostos gerados por IA para um grupo piloto de políticos, candidatos governamentais e jornalistas. A medida visa combater a desinformação e os vídeos manipulados, vulgarmente conhecidos como deepfakes, e foi detalhada numa publicação oficial no blog do YouTube.
A tecnologia começou a ser disponibilizada no ano passado a cerca de quatro milhões de criadores do Programa de Parceiros do YouTube, na sequência de testes anteriores. O funcionamento assemelha-se ao sistema Content ID, focado nos direitos de autor, mas procura identificar rostos simulados através de ferramentas artificiais.
Estes conteúdos são frequentemente usados para manipular a perceção da realidade, aproveitando a imagem de figuras públicas para transmitir mensagens ou atitudes que estas nunca tiveram na vida real.
O equilíbrio entre a liberdade de expressão e a segurança
Com este programa piloto, a intenção passa por equilibrar a liberdade de expressão dos utilizadores com os riscos associados à representação digital convincente de figuras públicas. Leslie Miller, vice-presidente de Assuntos Governamentais e Políticas Públicas da empresa, explicou que a expansão foca-se na integridade da conversa pública, reconhecendo que os riscos de roubo de identidade são especialmente elevados no espaço cívico.
No entanto, nem todas as queixas resultarão na eliminação automática do conteúdo. A plataforma compromete-se a avaliar cada pedido de remoção ao abrigo das suas diretrizes de privacidade, garantindo a proteção de conteúdos enquadrados em categorias como a paródia ou a crítica política.
Para utilizarem a nova ferramenta, os participantes autorizados terão de provar a sua identidade através do envio de uma fotografia pessoal e de um documento oficial. Em seguida, podem criar um perfil, consultar as correspondências encontradas e, se assim o entenderem, solicitar a sua remoção. Nos planos da empresa está a possibilidade de, futuramente, permitir o bloqueio destes vídeos antes da sua publicação ou, em alternativa, viabilizar a sua monetização.
Rótulos para conteúdos sintéticos
Os vídeos gerados artificialmente continuarão a ser devidamente sinalizados, mas a colocação dos rótulos não será uniforme. Enquanto alguns exibirão a indicação apenas na descrição, os vídeos focados em temas mais sensíveis apresentarão o aviso no próprio ecrã de reprodução. Amjad Hanif, vice-presidente de Produtos para Criadores, esclareceu que esta distinção depende da natureza do conteúdo, dando o exemplo de animações sintéticas que podem não justificar um aviso intrusivo.
Até ao momento, a quantidade de vídeos removidos pelos criadores que já tinham acesso à ferramenta tem sido muito reduzida. Segundo a empresa, a maioria dos casos detetados revela-se inofensiva ou até favorável para a atividade dos envolvidos. Contudo, espera-se que o cenário seja diferente no caso de governantes e jornalistas.
A longo prazo, a plataforma tenciona expandir esta tecnologia de deteção a outras áreas, com destaque para o reconhecimento de vozes faladas e de outras propriedades intelectuais, como personagens famosas. A empresa reafirmou também o seu apoio à criação de legislação a nível federal nos Estados Unidos, mencionando especificamente o NO FAKES Act, que visa regular a criação não autorizada de vozes e imagens simuladas.












Nenhum comentário
Seja o primeiro!