
Lembra-se de quando as imagens geradas por inteligência artificial eram fáceis de identificar? Dedos a mais, dentes desalinhados ou uma pele com um brilho estranho denunciavam imediatamente a criação digital. A tecnologia tinha dificuldade em perceber o contexto, chegando a criar um filé de salmão a boiar num rio quando o pedido era apenas um peixe. Vivíamos no "vale da estranheza", onde o quase perfeito ainda nos causava desconforto. Mas esses tempos acabaram.
As pistas visuais que nos permitiam distinguir o real do artificial estão a desaparecer a uma velocidade estonteante. O lançamento do Sora 2, o novo e impressionante modelo de geração de vídeo da OpenAI, apenas veio acelerar este processo. Em breve, a nossa única defesa contra a desinformação visual poderá depender exclusivamente de ferramentas digitais e análises técnicas.
“Mesmo para especialistas como eu, que acompanharam a evolução desta tecnologia, está a ficar difícil – principalmente no caso de imagens”, afirma Francesco Cavalli, cofundador da Sensity AI, uma empresa especializada em identificar conteúdo manipulado. “Sem a ajuda de ferramentas específicas, é praticamente impossível para o utilizador comum saber se uma imagem, vídeo ou áudio foi gerado por IA.”
As pistas visuais estão a desaparecer
As distorções físicas que antes denunciavam a inteligência artificial foram corrigidas. Segundo Emmanuelle Saliba, diretora da GetReal Security, uma empresa de cibersegurança focada em identificar conteúdo gerado por IA, o Sora 2 atingiu um nível de realismo sem precedentes, reproduzindo o mundo físico com uma precisão assustadora. Na Reality Defender, outra empresa da área, todos os investigadores admitem já ter sido enganados por conteúdos produzidos pelas novas ferramentas.
Nem as marcas de água, muitas vezes apontadas como a solução, são eficazes. Embora os vídeos criados pelo Sora incluam uma marca de água, já existem ferramentas online capazes de a remover com facilidade. A OpenAI, tal como outras gigantes tecnológicas, adotou o padrão C2PA, que regista a origem do conteúdo nos seus metadados. No entanto, uma simples captura de ecrã ou, em alguns casos, o ato de arrastar e soltar o ficheiro, é suficiente para remover essa identificação.
A OpenAI reconheceu a falha, embora afirme não ter conseguido replicar o problema de "arrastar e soltar". Por sua vez, a Adobe, que opera a ferramenta de verificação C2PA, indicou à Fast Company que o erro estaria do lado da OpenAI.
Uma nova corrida à tecnologia de deteção
Com o realismo a atingir novos patamares, as empresas especializadas em detetar deepfakes estão a assistir a um aumento na procura pelos seus serviços. No entanto, também elas se encontram numa corrida constante para atualizar as suas metodologias a cada novo modelo de IA que é lançado.
As análises combinam diferentes abordagens, desde a leitura de metadados à deteção de ruídos de fundo e pequenas inconsistências. Francesco Cavalli explica que os sistemas da sua empresa são reprogramados e aprimorados sempre que um novo modelo é lançado.
Contudo, a precisão está a diminuir. Siwei Lyu, um professor universitário que estuda deepfakes, revela que, embora os seus sistemas ainda consigam identificar vídeos do Sora 2, a taxa de sucesso caiu em relação a modelos anteriores, mesmo após os devidos ajustes. O futuro da deteção é incerto, e parece que estamos a entrar numa nova era dominada por conteúdos artificiais, enquanto as barreiras para os conter ainda estão a ser construídas.











Nenhum comentário
Seja o primeiro!