
Demorou apenas cerca de 20 minutos para que o modelo de inteligência artificial mais avançado da Anthropic, o Claude Opus 4.6, encontrasse o seu primeiro erro no navegador Firefox durante um teste interno de segurança.
A equipa submeteu a falha e os programadores do navegador responderam rapidamente, confirmando a gravidade do problema e pedindo uma reunião. Brian Grinstead, um engenheiro da Mozilla, foi direto na sua reação: pediu de imediato que enviassem tudo o que tivessem encontrado a mais. E foi exatamente isso que a equipa fez.
Uma caça aos erros sem precedentes
Durante um período de duas semanas em janeiro, o modelo detetou mais falhas de alta gravidade do que o resto do mundo costuma reportar num espaço de dois meses. No total, a inteligência artificial encontrou mais de 100 erros, sendo que 14 deles foram classificados como sendo de alta gravidade. Para se ter uma noção da escala desta descoberta, basta olhar para o ano passado, em que foram corrigidas 73 falhas com a classificação de alta gravidade ou críticas na sua totalidade.
Se fosse criado o código de exploração adequado, estas 14 vulnerabilidades poderiam ter sido usadas num ataque informático em grande escala aos utilizadores. A equipa de investigadores optou por enviar à Mozilla apenas os exemplos que podiam ser reproduzidos, o que acabou por facilitar imenso o trabalho de confirmação por parte dos programadores da fundação.
Foi também pedido ao modelo que tentasse criar código malicioso para explorar as falhas. No entanto, segundo Logan Graham, líder da equipa que avalia os riscos desta inteligência artificial, o sistema revelou-se muito melhor a encontrar os erros do que a explorá-los de facto. A ferramenta chegou a escrever dois métodos de ataque que funcionaram numa versão de testes, mas que acabariam por ser bloqueados pelos restantes mecanismos de segurança no mundo real.
A linha ténue entre a ajuda e o caos
O uso de ferramentas automatizadas na programação está a revelar-se uma faca de dois gumes para os profissionais do setor. Também em janeiro, os responsáveis pelo software Curl decidiram abandonar o seu próprio programa de recompensas por falhas de segurança, justificando a decisão com uma autêntica explosão de relatórios de fraca qualidade gerados por inteligência artificial. Daniel Stenberg, o principal responsável pelo projeto, revelou que menos de um em cada 20 erros reportados em 2025 eram efetivamente reais.
O programador alertou que os chatbots ainda imaginam e inventam muitos problemas de segurança que não existem, embora tenha reconhecido que os analisadores de código mais capazes já conseguem encontrar vulnerabilidades reais.
A velocidade com que os novos sistemas estão a identificar falhas e a tentar transformá-las em código de ataque está a preocupar o setor. Gadi Evron, diretor executivo da empresa Knostic, refere que os atuais métodos de defesa simplesmente não conseguem lidar com a rapidez e a frequência do que está a acontecer no universo da tecnologia, de acordo com as informações avançadas pelo The Wall Street Journal.












Nenhum comentário
Seja o primeiro!