
Parece que a inteligência artificial de Elon Musk continua a ter problemas graves de comportamento, apesar das promessas em contrário. Embora o magnata tenha afirmado que o seu chatbot deixou de criar imagens sexualizadas sem o consentimento das pessoas, uma nova investigação revela que essa afirmação não é totalmente verdadeira. Se os filtros parecem ter apertado ligeiramente para as mulheres, o mesmo não se aplica ao sexo masculino.
Segundo uma reportagem detalhada do The Verge, a IA continua a despir pessoas digitalmente com uma facilidade alarmante, focando-se agora predominantemente nos homens. Os testes realizados demonstram que o bot "despe prontamente homens e continua a produzir imagens íntimas a pedido". O repórter confirmou esta falha grave utilizando fotos de si próprio, pedindo à IA que removesse a roupa das imagens carregadas.
A ferramenta executou a tarefa gratuitamente tanto na aplicação, como através da interface na rede social X e até no site independente, onde nem sequer foi necessário criar uma conta para alterar digitalmente as fotografias.
Filtros que falham na prática
A empresa tinha afirmado recentemente que implementou medidas para impedir que a conta permitisse a edição de imagens de pessoas reais em roupas reveladoras, como biquínis. No entanto, a realidade dos testes mostrou o oposto: o jornalista não teve qualquer dificuldade em fazer com que o chatbot o colocasse numa "variedade de biquínis". Mais perturbador ainda, o sistema gerou imagens do sujeito em equipamentos de fetiche e numa "parada de posições sexuais provocantes".
Num dos casos, a IA chegou ao ponto de gerar um "companheiro nu" para o repórter interagir na imagem e, por iniciativa própria, criou genitais visíveis através de roupa interior de rede, algo que nem sequer tinha sido solicitado no comando original. O Grok raramente resistiu aos pedidos, embora por vezes censurasse o resultado final com uma imagem desfocada, provando que as salvaguardas tecnológicas implementadas são, na melhor das hipóteses, frágeis.
Um problema recorrente em 2026
Esta controvérsia surge poucas semanas após a descoberta de que o sistema tinha gerado milhões de imagens sexualizadas num período de apenas 11 dias, incluindo deepfakes não consensuais de pessoas reais e mais de 23.000 imagens sexualizadas de crianças. A gravidade da situação levou a investigações na Califórnia e na Europa, e resultou no banimento da plataforma na Indonésia (já levantado) e na Malásia.
Apesar da X alegar ter implementado "medidas tecnológicas", é evidente que existem métodos criativos de "prompting" para contornar estas barreiras. E qual é a resposta da empresa quando confrontada com estes dados pelos jornalistas? Em pleno 2026, a resposta automática enviada para a imprensa continua a ser a frase "legacy media lies" (a imprensa tradicional mente), uma postura que demonstra pouca vontade de resolver o problema de fundo.










Nenhum comentário
Seja o primeiro!