
A tecnologia de inteligência artificial generativa atingiu um novo patamar preocupante no contexto de conflitos armados. Segundo uma investigação recente da NBC News, a ferramenta Sora da OpenAI tem vindo a ser utilizada para criar vídeos falsos e ultrarrealistas destinados a desmoralizar as tropas ucranianas e influenciar a opinião pública.
Desde o início de novembro, foram identificados pelo menos 21 vídeos gerados por IA que retratam soldados ucranianos a renderem-se ou em situações de extrema angústia nas linhas da frente. O que torna estes casos particularmente notáveis é o facto de aproximadamente metade destes vídeos exibir a marca de água do Sora 2, a versão mais recente e avançada do gerador de vídeo da empresa de Sam Altman. Estes conteúdos têm circulado amplamente em plataformas como o TikTok, Facebook, X e YouTube, marcando o que os especialistas classificam como uma nova fronteira na propaganda de guerra.
Deepfakes e a dificuldade de deteção
A sofisticação destes vídeos é tal que a distinção entre a realidade e a ficção torna-se cada vez mais complexa. Um dos aspetos mais insidiosos desta campanha envolveu a sobreposição de rostos de streamers russos em corpos de soldados ucranianos. Um caso concreto envolveu Aleksei Gubanov, um criador de conteúdo residente em Nova Iorque e conhecido opositor de Vladimir Putin. Num dos vídeos fabricados, uma figura com as feições de Gubanov aparece num uniforme militar ucraniano, a implorar em russo para não ser enviado para a frente de batalha em Pokrovsk.
Alice Lee, especialista em influência russa da NewsGuard, alerta que as falsidades criadas com o Sora são significativamente mais difíceis de detetar e desmascarar, escapando muitas vezes até aos melhores detetores de IA disponíveis no mercado. Testes realizados pela NewsGuard em outubro revelaram que, quando solicitado, o Sora 2 produziu vídeos realistas promovendo alegações comprovadamente falsas em 80% das tentativas.
O Centro de Combate à Desinformação da Ucrânia confirmou que estes vídeos são fabricados, notando um aumento significativo no volume de conteúdo manipulado por IA. O objetivo destas campanhas é claro: minar a confiança pública e corroer o apoio internacional à Ucrânia, aproveitando a natureza emocional e sensacionalista destes conteúdos visuais.
A resposta da OpenAI e os riscos para a democracia
Confrontada com esta utilização da sua tecnologia, a OpenAI afirmou que, embora permita "ação cinematográfica", proíbe estritamente violência gráfica, material extremista ou conteúdo enganoso. A empresa garante que os seus sistemas detetam e bloqueiam ativamente violações, mas admite que alguns comportamentos prejudiciais podem contornar as salvaguardas existentes.
A situação gerou reações fortes por parte de organizações de defesa do consumidor. A Public Citizen exigiu a retirada imediata do Sora 2, argumentando numa carta dirigida ao CEO Sam Altman que a ferramenta representa uma ameaça direta à democracia e demonstra um desrespeito imprudente pela segurança do produto e pelos direitos de imagem das pessoas.
Este aumento na desinformação digital surge num momento crítico, numa altura em que cerca de 75% dos ucranianos rejeitam categoricamente as propostas russas para terminar a guerra, segundo dados do Instituto Internacional de Sociologia de Kiev. A proliferação de ferramentas como o Sora levanta questões urgentes sobre a responsabilidade das empresas tecnológicas na moderação de ferramentas tão poderosas quando estas chegam ao domínio público.










Nenhum comentário
Seja o primeiro!