Nos EUA encontram-se a iniciar as eleições presidenciais de 2024, e com o aumento do uso de tecnologias de IA, existe também o receio de como estas podem causar impacto nas votações.
A OpenAI é uma das maiores entidades na criação de tecnologias de IA, e a pensar nisso, a empresa revelou agora os planos para combater conteúdos enganadores ou desinformação durante as eleições presidenciais de 2024 em ferramentas como o ChatGPT.
Numa mensagem publicada no seu blog, a empresa refere alguns dos planos para os próximos meses de forma a combater o uso das suas ferramentas em tarefas de criação de conteúdos enganadores ou deepfakes.
A empresa afirma que se encontra a aplicar melhorias no sistema para identificar a criação deste género de conteúdos, bem como a fornecer mais transparência para os utilizadores.
Ao mesmo tempo, a OpenAI afirma que as suas ferramentas não podem ser usadas para campanhas políticas, e não será permitida a criação de chatbots personalizados que possam permitir a simulação de se encontrarem em conversa com candidatos ou grupos governamentais.
Serão ainda bloqueados chatbots personalizados onde os utilizadores possam abusar o uso das ferramentas para criar conteúdos que possam levar a desencorajar os utilizadores de votar.
Para ferramentas como o DALL-E, a OpenAI encontra-se a trabalhar em mecanismos que vão permitir marcar e identificar este género de conteúdos criados via IA, para melhor evitar a propagação de deepfakes, mesmo que esses conteúdos tenham sido sujeitos a alguns mecanismos de adulteração de imagens, para remover esse género de assinaturas.
Estas novas medidas serão aplicadas em todas as ferramentas e tecnologias da OpenAI, para garantir que as mesmas não são usadas para abusos.
Nenhum comentário
Seja o primeiro!