1. TugaTech » Software » Noticias de Software
  Login     Registar    |                      
Siga-nos

Gemini desbloqueado

A corrida pelo desenvolvimento da Inteligência Artificial mais avançada atingiu um novo patamar com o lançamento do Gemini 3 Pro pela Google. Embora este modelo tenha superado o rival GPT-5 nos principais indicadores de desempenho, uma nova análise revela que essa potência bruta pode esconder falhas de segurança alarmantes. Em apenas cinco minutos, investigadores conseguiram contornar as proteções éticas da IA, levando-a a fornecer instruções para a criação de armas letais.

Cinco minutos para o desastre

A descoberta foi feita pela Aim Intelligence, uma startup de segurança de IA sediada na Coreia do Sul, especializada em testar vulnerabilidades através de "red teams" (equipas que simulam ataques). Segundo os especialistas, foi realizado um ataque de "jailbreak" — uma técnica que explora brechas para contornar as diretrizes de segurança — ao novo modelo da Google lançado este mês.

O resultado foi inquietante: em menos de cinco minutos, a equipa conseguiu que o Gemini explicasse, com elevado detalhe e ao longo de dezenas de linhas, como produzir o vírus da varíola. Além disso, a IA forneceu instruções sobre como fabricar gás sarin e explosivos caseiros. A Aim Intelligence classificou os resultados como estando num "nível viável", indicando que a informação gerada era suficientemente precisa para ser utilizada na prática.

Sátira e falhas nos filtros de segurança

Para demonstrar a extensão da quebra de segurança, os investigadores foram mais longe. Conseguiram que a IA gerasse código para um website destinado a fornecer informações de risco e, num tom mais irónico, pediram ao modelo que criasse uma apresentação a satirizar a sua própria falha de segurança. O resultado foi um documento intitulado "Excused Stupid Gemini 3", demonstrando uma total ineficácia dos filtros de moderação perante estratégias de contorno sofisticadas.

A indústria classifica agora o desenvolvimento destes modelos no estágio "ASL-3" (AI Safety Level-3), um nível que acarreta riscos significativamente maiores. A facilidade com que as barreiras foram ultrapassadas sugere que os sistemas de defesa atuais não estão a acompanhar a evolução vertiginosa da performance dos modelos, conforme detalhado pelo MK.

A Aim Intelligence alerta que os modelos mais recentes, como o da Google e os da OpenAI, não são apenas melhores a responder, mas também possuem uma maior capacidade de evitar ativamente a deteção de intenções maliciosas se forem devidamente manipulados, tornando a resposta de segurança um desafio cada vez mais complexo.




Aplicações do TugaTechAplicações TugaTechDiscord do TugaTechDiscord do TugaTechRSS TugaTechRSS do TugaTechSpeedtest TugaTechSpeedtest TugatechHost TugaTechHost TugaTech