
A Google continua a reforçar a sua aposta em inteligência artificial, desta vez com um foco claro na cibersegurança. A gigante tecnológica anunciou um conjunto de novas ferramentas e iniciativas que prometem usar a IA para tornar o mundo digital um lugar mais seguro, tanto para programadores como para utilizadores.
Numa publicação no seu blog oficial, a empresa detalhou três grandes novidades: um agente de IA que corrige código, um programa de recompensas para quem encontrar falhas e uma atualização à sua estrutura de segurança.
CodeMender: o seu novo programador de segurança com IA
A principal estrela do anúncio é o CodeMender, um agente de IA concebido para identificar e corrigir vulnerabilidades de segurança em código de forma autónoma. Imagine ter um especialista incansável a rever o seu trabalho, garantindo que está protegido contra falhas. É essa a promessa desta nova ferramenta.
O processo é bastante sofisticado. O CodeMender utiliza o modelo Gemini para realizar uma análise da causa principal do problema. Depois de identificar a falha, gera um patch de segurança para a corrigir. Antes de ser apresentada a um humano, esta correção é revista por outros "agentes de crítica" de IA, num processo de revisão por pares automatizado. Só após esta validação é que a sugestão chega a um programador humano para aprovação final. Esta tecnologia foi desenvolvida com base nos conhecimentos adquiridos pela Google com os seus projetos BigSleep e OSS-Fuzz.
Um novo incentivo para a caça a falhas em IA
A par do seu novo "programador" de IA, a Google lançou um Programa de Recompensa por Vulnerabilidades (VRP) dedicado exclusivamente aos seus produtos de inteligência artificial. Com esta iniciativa, a empresa incentiva investigadores de segurança a encontrar e reportar falhas nos seus sistemas, oferecendo recompensas que podem chegar aos 20.000 dólares (cerca de 18.500 euros) para os bugs mais graves.
SAIF 2.0 reforça a estrutura de segurança
Por último, a empresa atualizou a sua Estrutura de IA Segura (SAIF) para a versão 2.0, adicionando três novos componentes essenciais. O primeiro é um mapa de risco para identificar e planear ameaças relacionadas com agentes de IA. O segundo consiste numa série de atualizações de segurança que estão a ser implementadas em todos os agentes de IA da Google.
O terceiro componente é a doação dos dados deste mapa de risco à Coligação para o Mapa de Risco de IA Segura, com o objetivo de beneficiar toda a comunidade. A Google afirma que estas iniciativas fazem parte da sua visão a longo prazo para utilizar a inteligência artificial como uma ferramenta poderosa na defesa contra ataques maliciosos e na proteção dos utilizadores em todo o mundo.











Nenhum comentário
Seja o primeiro!