Cada vez mais plataformas pela internet encontram-se a adotar funcionalidades voltadas para IA, e o YouTube é uma delas. A plataforma tem vindo a experimentar algumas novas funcionalidades focadas para melhorar a experiência dos utilizadores na reprodução de conteúdos.
No entanto, se existem funções úteis onde se pode usar IA, ao mesmo tempo também existe quem se aproveite das mesmas para criar conteúdos falsos ou enganadores, ou para usar a tecnologia para criar vídeos com conteúdos falsos sobre personalidades reconhecidas.
A pensar nisso, a Google confirmou que vai começar a aplicar medidas para mitigar conteúdos negativos da sua plataforma que tenham sido criados com recurso a IA. A ideia do YouTube será desenvolver novas ferramentas capazes de proteger os criadores de conteúdos, e identificar os que tenham sido criados com recurso a IA.
A primeira funcionalidade será voltada para conteúdos musicais, onde a tecnologia da Google será capaz de identificar músicas e vozes que tenham sido criadas com tecnologias de IA, de forma a identificar potenciais casos abusivos – por exemplo, usar a voz de uma personalidade numa música sem autorização para tal.
A segunda função em testes na plataforma vai focar-se mais na parte do vídeo, onde os artistas, personalidades ou pessoas famosas podem rapidamente identificar conteúdos no YouTube onde os seus rostos tenham sido usados por IA para criar os mais variados vídeos.
Este sistema vai identificar conteúdos criados por IA onde o rosto das pessoas tenha sido usado, potencialmente sem autorização. A ideia da plataforma será criar mecanismos que podem ser usados para melhorar a segurança dos conteúdos partilhados no serviço, ao mesmo tempo que evita casos de abuso onde as tecnologias de IA possam ter sido usadas.
Espera-se que as novidades comecem a ficar disponível em breve. Para já, as mesmas ainda se encontram em formato de testes, e devem manter-se limitadas para apenas alguns utilizadores durante esta fase.
Nenhum comentário
Seja o primeiro!