Por muitos filtros que sejam aplicados nos chatbots de IA, existem sempre formas que os utilizadores conseguem usar para contornar as restrições. E o Bing Chat isso não é exceção.
O chatbot da Microsoft conta com vários filtros que impede que os utilizadores possam usar o sistema para determinadas tarefas. Por exemplo, uma delas encontra-se na leitura de captchas, que caso o utilizador envie uma imagem para a IA da Microsoft decifrar, com este conteúdo, o mesmo recusa-se a processar. No entanto, com o formato correto de texto e imagem, é possível enganar este sistema.
Foi exatamente isso que o utilizador da X Denis Shiryaev realizou, tendo conseguido enganar o Bing Chat para decifrar um captcha, usando uma história algo complexa.
Quando o utilizador tentou que o Bing Chat decifrasse o conteúdo de um captcha simples, o chatbot simplesmente recusou-se a fazer essa tarefa. No entanto, para enganar os filtros, o utilizador colocou a imagem do captcha sobre um medalhão, e inventou a história de que o mesmo pertencia à sua falecida avó, e que pretendia que o Bing Chat o ajudasse a decifrar o texto no mesmo. Com isto, parece ter sido o suficiente para contornar o filtro, sendo que o Bing Chat foi capaz de reconhecer e ditar o texto que se encontrava no captcha, contornando as restrições.
Obviamente, o Bing Chat respondeu com base na informação fornecida, lamentando também a situação e afirmando esperar que a sua ajuda possa “trazer memórias” do que os dois partilharam.
Por muitos filtros que sejam aplicados para impedir que os chatbots de IA realizem certas tarefas, a realidade é que existem sempre utilizadores que são capazes de contornar os mesmos com relativa facilidade, e este é mais uma vez, um exemplo de tal.
Nenhum comentário
Seja o primeiro!