
O recém-lançado navegador com IA da OpenAI, o ChatGPT Atlas, apresenta uma falha de segurança que permite a atacantes executar ataques de "prompt injection", disfarçando instruções maliciosas como se fossem URLs inofensivos. A descoberta foi feita pela empresa de segurança de IA NeuralTrust.
O problema reside na forma como a barra de endereço multifunções do navegador interpreta o que é inserido: em vez de validar se o texto é um endereço web real, pode interpretá-lo como um comando de linguagem natural para o assistente de IA integrado.
Como funciona o ataque
O método é perigosamente simples. Um atacante cria uma cadeia de texto que começa com "https" e inclui um domínio falso, fazendo-a parecer um link legítimo. Quando um utilizador cola este texto na barra de endereço do Atlas, o navegador falha na sua validação como URL e, em vez disso, lê-o como uma instrução direta para o agente de IA, que executa o comando oculto.
Estes comandos podem levar os utilizadores a sites de phishing ou, em cenários mais graves, executar ações prejudiciais. Investigadores de segurança alertam que, em casos extremos, botões falsos de "copiar link" ou prompts embutidos em páginas web poderiam levar à eliminação de ficheiros em serviços conectados, como o Google Drive.
Um problema crescente no mundo da IA
Esta vulnerabilidade não é exclusiva do navegador da OpenAI. A divulgação surge numa altura em que outros navegadores e chatbots com funcionalidades de IA enfrentam desafios de segurança semelhantes.
Os ataques de "prompt injection" tornaram-se um problema significativo, com os atacantes a recorrer a várias técnicas para esconder instruções maliciosas, como texto invisível, convites de calendário, mensagens baseadas em imagens ou comentários em código HTML. Como prova de que este é um desafio transversal, o Google Gemini foi alvo de uma exploração semelhante no início deste ano.











Nenhum comentário
Seja o primeiro!