1. TugaTech » Internet e Redes » Noticias da Internet e Mercados
  Login     Registar    |                      
Siga-nos

DALL-E 3

Durante a semana passada, a X bloqueou as pesquisas da sua plataforma associadas com a cantora Taylor Swift, depois de imagens deepfake da mesma terem sido partilhadas em massa na plataforma.

Os primeiros relatos apontavam que as imagens estariam a ser criadas por IA, e mais concretamente usando as funcionalidades oferecidas pelo Microsoft Designer, que usa o modelo DALL-E 3 da OpenAI.

Na altura, a Microsoft negou ter encontrado falhas no seu sistema que estariam a permitir a criação de imagens explicitas da cantora usando as ferramentas da mesma. No entanto, desde então, novas informações podem ter sido reveladas, indicando que a empresa poderia ter conhecimento dessas falhas faz algum tempo.

Ao que parece, o sistema de segurança da plataforma da Microsoft contava com uma falha, que poderia permitir usar a IA para criar este género de conteúdos explícitos. O engenheiro Shane Jones terá confirmado a descoberta de uma falha nos mecanismos de segurança do modelo DALL-E 3, que poderia permitir realizar estas imagens sem os filtros de segurança aplicados no modelo.

Jones terá informado a Microsoft desta falha em Dezembro de 2023, mas na altura a empresa recomendou o mesmo a contactar a OpenAI, tendo em conta que a falha diria respeito ao modelo base criado pela mesma, e não diretamente aos conteúdos da Microsoft.

Depois de ter reportado a falha à OpenAI, o engenheiro não recebeu resposta da mesma, o que levou este a criar uma carta publica, direcionada para os fundadores da OpenAI, relativamente ao problema. Na altura, o departamento legal da Microsoft terá entrado em contacto com Jones para que removesse essa carta, algo que o mesmo fez.

Em comunicado, a OpenAI afirma que a técnica usada por Jones não permite contornar as medidas de segurança do modelo de IA da OpenAI, e portanto, as descobertas não seria válidas.

Apesar de a falha inicialmente reportada por Jones ter sido aparentemente ignorada, desde então a Microsoft já atualizou as suas politicas de segurança relativamente às ferramentas de IA do Microsoft Designer, exatamente para prevenir o uso das mesmas na criação de deepfakes.

Foto do Autor

Aficionado por tecnologia desde o tempo dos sistemas a preto e branco

Ver perfil do usuário Enviar uma mensagem privada Enviar um email Facebook do autor Twitter do autor Skype do autor

conectado
Encontrou algum erro neste artigo?



Aplicações do TugaTechAplicações TugaTechDiscord do TugaTechDiscord do TugaTechRSS TugaTechRSS do TugaTechSpeedtest TugaTechSpeedtest TugatechHost TugaTechHost TugaTech