
Um novo e alarmante tipo de material de abuso sexual infantil e juvenil (CSAM), gerado por Inteligência Artificial (IA), está a inundar a internet, de acordo com uma reportagem do The New York Times. Investigadores de organizações como a Internet Watch Foundation e o National Center for Missing & Exploited Children alertam que este novo conteúdo é quase indistinguível de abusos reais, representando uma ameaça crescente.
Os números do alarme
As estatísticas demonstram um crescimento vertiginoso. A Internet Watch Foundation, uma organização sem fins lucrativos que investiga e recolhe denúncias de CSAM, identificou 1.286 vídeos gerados por IA só este ano. Em comparação, apenas dois vídeos com estas características foram identificados no primeiro semestre de 2024, o que revela um aumento exponencial.
Os dados do National Center for Missing & Exploited Children reforçam esta tendência. A organização revelou ao jornal norte-americano ter recebido 485.000 denúncias de CSAM gerado por IA, incluindo imagens e vídeos, na primeira metade de 2025. Este número contrasta drasticamente com os 67.000 registos referentes a todo o ano de 2024.
"É o canário na mina de carvão", afirmou Derek Ray-Hill, diretor executivo interino da Internet Watch Foundation. "Estamos a assistir a um verdadeiro tsunami."
Tecnologia cada vez mais realista e perigosa
A constante melhoria desta tecnologia resulta em vídeos e imagens cada vez mais realistas. A Internet Watch Foundation encontrou um fórum na internet onde os utilizadores elogiavam o realismo dos novos vídeos. As investigações sugerem que este conteúdo é distribuído principalmente através da dark web, dificultando a identificação dos criminosos por parte das autoridades.
É importante recordar como funcionam os geradores de imagem de IA: são treinados com base em imagens e vídeos reais. O The New York Times refere que grande parte deste novo volume de conteúdo inclui CSAM real que foi reutilizado e modificado pelo algoritmo. Parte do material utiliza até fotografias reais de crianças, extraídas de sites de escolas e redes sociais.
A resposta da indústria e da justiça
Este problema remonta aos primórdios da tecnologia. Em 2023, investigadores do Stanford Internet Observatory encontraram centenas de exemplos de CSAM num conjunto de dados usado numa versão inicial do gerador de imagens Stable Diffusion. A Stability AI, empresa responsável, afirma ter introduzido salvaguardas para melhorar os padrões de segurança e está "profundamente empenhada em prevenir o uso indevido da nossa tecnologia".
Esta situação levou outras empresas a começar a reportar CSAM gerado por IA. A Amazon denunciou uns impressionantes 380.000 casos no primeiro semestre deste ano, tendo removido todo o conteúdo. A OpenAI reportou 75.000 casos.
Os tribunais, por sua vez, têm tido dificuldade em acompanhar a evolução tecnológica. O Departamento de Justiça dos EUA (DOJ) efetuou a sua primeira detenção conhecida no ano passado, de um homem suspeito de possuir e distribuir CSAM gerado por IA. Recentemente, um homem no Reino Unido foi condenado a 18 meses de prisão por usar IA para gerar estas imagens, que depois vendia.
"O Departamento de Justiça encara todas as formas de CSAM gerado por IA como uma ameaça séria e emergente", declarou Matt Galeotti, chefe da divisão criminal do DOJ.
Uma pequena fração de um problema gigante
Apesar do aumento alarmante, é importante notar que o conteúdo gerado por IA ainda representa uma fração mínima de todo o CSAM identificado pelas autoridades e organizações de vigilância. Por exemplo, a Internet Watch Foundation confirmou 291.273 denúncias de CSAM em 2024, e, como referido, apenas duas delas eram geradas por IA. Contudo, o rápido crescimento desta nova vertente representa um desafio significativo para a segurança online.










Nenhum comentário
Seja o primeiro!