1. TugaTech » Internet e Redes » Noticias da Internet e Mercados
  Login     Registar    |                      
Siga-nos

Gemini 2.5

 

A Google decidiu não corrigir uma nova e preocupante falha de segurança no Gemini, o seu assistente de inteligência artificial, que permite a um atacante enganar o modelo com recurso a texto invisível. Esta vulnerabilidade pode ser usada para fornecer informações falsas aos utilizadores, alterar o comportamento do assistente e até "envenenar" silenciosamente os seus dados.

 

O ataque, conhecido como "ASCII smuggling", utiliza caracteres especiais do bloco Unicode "Tags" para introduzir comandos maliciosos que são completamente invisíveis para o utilizador, mas que são lidos e processados pelos Modelos de Linguagem de Grande Escala (LLMs).

 

O que é o "ASCII smuggling"?

 

Imagine que está a ler um texto normal, mas escondido entre as letras existem instruções secretas que só uma máquina consegue ver. É assim que funciona o "ASCII smuggling". Explora a diferença entre o que os humanos veem no ecrã e o que os sistemas de IA leem no código subjacente.

 

Embora a suscetibilidade dos LLMs a este tipo de ataque não seja uma descoberta recente, o nível de risco aumentou drasticamente. Anteriormente, o perigo limitava-se a situações em que o utilizador era convencido a colar texto malicioso num chatbot. Agora, com assistentes como o Gemini para Android, que têm acesso a dados sensíveis e podem executar tarefas de forma autónoma, a ameaça é muito mais significativa.

 

Gemini e Grok são vulneráveis, mas a Google desvaloriza o risco

 

Viktor Markopoulos, um investigador de segurança da empresa de cibersegurança FireTail, testou a vulnerabilidade em várias ferramentas de IA populares. Os resultados mostram que o Gemini (através de convites de calendário ou emails), o DeepSeek (através de comandos) e o Grok da xAI são vulneráveis ao ataque.

Por outro lado, modelos como o Claude, o ChatGPT e o Microsoft Copilot mostraram-se seguros, uma vez que implementam algum tipo de validação dos dados de entrada para filtrar estes caracteres.

 

O investigador reportou as suas descobertas à Google a 18 de setembro. No entanto, a gigante tecnológica desvalorizou o problema, afirmando que não se trata de uma falha de segurança, mas sim de um problema que só pode ser explorado através de ataques de engenharia social. Curiosamente, outras empresas, como a Amazon, publicaram guias detalhados sobre os perigos deste tipo de manipulação.

 

Quais são os perigos reais para os utilizadores?

 

A integração do Gemini com o Google Workspace representa o risco mais elevado. Um atacante pode enviar um convite de calendário ou um email com texto invisível. Markopoulos demonstrou que é possível esconder instruções no título do convite, falsificar a identidade do organizador e contrabandear descrições ou links maliciosos.

"Para os utilizadores com LLMs ligados às suas caixas de correio, um simples email com comandos escondidos pode instruir o LLM a procurar por itens sensíveis ou a enviar detalhes de contactos, transformando uma tentativa de phishing padrão numa ferramenta de extração autónoma de dados", alerta o investigador.

 

Num dos seus testes, Markopoulos conseguiu que o Gemini recomendasse um site potencialmente malicioso como sendo um bom local para comprar um telemóvel com desconto. Com o crescimento de assistentes de IA cada vez mais autónomos, a decisão da Google de ignorar esta falha pode revelar-se perigosa.




Aplicações do TugaTechAplicações TugaTechDiscord do TugaTechDiscord do TugaTechRSS TugaTechRSS do TugaTechSpeedtest TugaTechSpeedtest TugatechHost TugaTechHost TugaTech