A cibersegurança já deixou de ser uma curiosidade para os “geeks” da informática e os profissionais do setor. É uma necessidade essencial das sociedades atuais. É um setor da economia de mercado dinâmico e exigente. É uma área em que todas as pessoas deveriam ter conhecimentos básicos (cada vez mais pessoas procuram usar um servidor VPN para a sua proteção pessoal). É até um elemento essencial em termos de defesa nacional e segurança dos estados. As suas implicações ao nível da política internacional são cada vez maiores e mais vastas. Vejam-se os exemplos da guerra de desinformação movida pela Rússia ou do roubo de 2000 milhões de dólares pela Coreia do Norte, via ciber-ataques.
É muito provável que a Inteligência Artificial (IA) venha a ser utilizada de forma corrente no campo da cibersegurança. Muitas tarefas são exigentes em termos de mão de obra. O combate ao spam e ao malware é otimizado utilizando ferramentas de IA.
Contudo, deveríamos dizer ciber-guerra em vez de cibersegurança, pois a AI também pode ser utilizada para o ataque, e não apenas para a defesa. A IA garante sempre custos mais baixos, além de ataques mais rápidos e em maior escala; além de que não é fácil encontrar pessoal qualificado. Numa conferência de especialistas realizada em Oxford (Reino Unido), em fevereiro de 2017, 62% declararam que o “estado-da-arte” da IA já permitiria ciber-ataques.
Vantagens do uso de IA em ciber-ataques
Além da eficiência económica e da potencial dimensão do ataque, existem outras vantagens.
A distância psicológica é uma delas. Deixa de ser necessário que um atacante se envolva pessoal ou diretamente com uma vítima. O anonimato, associado a esta ausência de contacto, é também vantajoso, ainda que seja simples forjar uma identidade num ciber-ataque “humano”.
As possibilidades em termos de “engenharia social” representam outra das vantagens. A forma mais frequente de introdução de malware é através de “phishing”. Mas criar um ataque “phishing” credível não é uma tarefa fácil. É necessário encontrar o perfil de vítima correto e também escolher o momento apropriado. As probabilidades de sucesso são muito reduzidas e o esforço pode envolver dias ou semanas de pesquisa.
A IA vem modificar este cenário, principalmente com a quantidade de informação pública disponível online, nestes tempos de sobre-exposição nas redes sociais. Modelos analíticos, automáticos e autónomos poderão até calcular a probabilidade de uma vítima pagar um resgate. Se os ciber-criminosos tiverem acesso a bases de dados privadas, através de “leaks”, a quantidade de dados à disposição das ferramentas de IA aumenta exponencialmente.
Além da identificação do perfil da vítima, a interação necessária para que o ataque seja bem sucedido também é otimizada pela AI. Sites e e-mails falsos podem ser criados de modo a que pareçam mais credíveis junto de um maior número de vítimas. A tecnologia dos “chatbots” (robots em forma de “live chat”, tecnologia cada vez mais frequente em serviços de apoio ao cliente) consegue manter conversas cada vez mais humanas e verosímeis. Pode até ser possível que um chatbot assuma a identidade dos amigos da vítima, imitando o seu estilo de escrita. Prevê-se que, a médio prazo, a tecnologia de reconhecimento de voz permita dar um salto neste tipo de técnicas. Um ciber-ataque poderia criar registos de vozes realistas, dando ainda mais credibilidade a um perfil falso. Com a quantidade de dados que as pessoas fornecem sobre as suas vozes, estes cenários são claramente possíveis.
Em suma, o uso de “machine learning” para identificar vítimas e criar cenários falsos otimiza a tarefa do criminoso a níveis nunca vistos.
Ciber-segurança contra IA: o que fazer?
O princípio base de qualquer corrida aos armamentos vem do início da História. Se o adversário adota uma arma melhor, é preciso adotá-la também. Em alternativa, deve escolher-se uma arma que permita a defesa contra a nova arma do adversário. A corrida aos armamentos é visível até nos animais, pois entre rivais da mesma espécie vencerá o mais forte, o mais rápido ou o mais inteligente. A IA é uma nova tecnologia que permite criar novas armas, tanto para os ciber-atacantes como para quem defende: os profissionais de ciber-segurança.
Os ataques mais correntes, sob a forma de malware ou outros, seguem padrões. O uso de “machine learning” ajudará a detetar esses padrões e a prever futuros ataques. De forma similar, a aprendizagem sobre os hábitos e comportamentos de utilizadores humanos na internet (“Behavior analytics”) pode ser feita via IA. Conhecendo esses comportamentos, será mais fácil detetar utilizadores não humanos, que se desviem do padrão.
Porém, como num jogo de xadrez, o desenvolvimento da IA implica jogadas de antecipação de ambos os lados. Assim como os ciber-defensores usam a IA para prever os próximos ataques, os ciber-atacantes farão o mesmo para adivinhar qual a próxima defesa. O investimento no conhecimento em IA torna-se fundamental e implica a colaboração próxima e permanente entre as partes:
- académicos e investigadores (teoria)
- profissionais da indústria (prática)
- legisladores e autoridades (política)
É essencial que as autoridades estejam atentas, legislem e dotem os agentes de segurança das melhores ferramentas.
Finalmente, é essencial que o mundo dos negócios (as empresas) e os cidadãos comuns acompanhem este debate e adotem medidas de segurança básicas. O anonimato, a redução da partilha de dados pessoais e o uso de um servidor VPN são passos ao alcance de todos. De resto, o uso de passwords repetidas e fáceis de detetar continua a ser demasiado comum.
Nenhum comentário
Seja o primeiro!