1. TugaTech » Internet e Redes » Noticias da Internet e Mercados
  Login     Registar    |                      
Siga-nos

Explosão

O ChatGPT conta com várias restrições nas respostas que pode fornecer, em parte para prevenir que a plataforma possa ser usada para abusos ou ataques diretos. Entre estas encontram-se questões de como fabricar engenhos explosivos e outros, que podem causar problemas no mundo real.

No entanto, como acontece em todos os sistemas, existem sempre formas de dar a volta aos mesmos, e recentemente, um hacker entusiasta revelou ter descoberto uma forma de fazer o ChatGPT ensinar a realizar engenhos explosivos, com instruções detalhadas para tal.

De acordo com o portal Techcrunch, um hacker, conhecido apenas como “Amadon”, afirma ter descoberto uma forma de contornar praticamente todas as medidas de segurança implementadas no ChatGPT, para evitar que o mesmo forneça informações consideradas como perigosas.

O mesmo afirma que conseguiu fazer com que o ChatGPT fornece-se informações bastante precisas de como construir um engenho explosivo, que poderia ter efeitos no mundo real. O portal terá ainda colocar as instruções para a criação do engenho na leitura de um especialista, que considera que as mesmas são detalhadas o suficiente para realizar algo que pode realmente explodir.

O hacker afirma que terá conseguido enganar o ChatGPT, levando-o a dizer aquilo que cria sem filtros, com a ideia de “jogar um jogo”. Usando um conjunto de questões interligadas, o mesmo foi capaz de praticamente desativar todas as regras de segurança implementadas no sistema.

Segundo Amadon, quando as regras de segurança são desativadas, é possível questionar o ChatGPT sobre praticamente tudo. O exemplo dos engenhos explosivos é apenas um dos casos, mas pode ser aplicado a praticamente qualquer outro tema que, normalmente, seria barrado pelo ChatGPT.

Amadon afirma ter tentado reportar este problema à OpenAI como sendo um bug, mas que a plataforma recusou receber o mesmo, por considerar que falhas a nível da segurança e limites dos modelos de IA não se aplicam como bugs. Neste caso, o mesmo foi aconselhado a contactar a OpenAI por outros meios – dos quais a empresa, até ao momento, não forneceu resposta.

Foto do Autor

Aficionado por tecnologia desde o tempo dos sistemas a preto e branco

Ver perfil do usuário Enviar uma mensagem privada Enviar um email Facebook do autor Twitter do autor Skype do autor

conectado
Encontrou algum erro neste artigo?



Aplicações do TugaTechAplicações TugaTechDiscord do TugaTechDiscord do TugaTechRSS TugaTechRSS do TugaTechSpeedtest TugaTechSpeedtest TugatechHost TugaTechHost TugaTech