A Microsoft lançou uma nova ferramenta de código aberto, focada para os programadores, com o objetivo de estes testarem a segurança das suas tecnologias de Inteligência Artificial. O projeto foi apelidado de “Counterfit” e encontra-se disponível para ser usado livremente no Github.
A Microsoft afirma que usa o Counterfit como forma de testar os próprios sistemas que a empresa desenvolve no dia a dia, e que é uma excelente ferramenta para testar possíveis pontos de exploração para falhas em sistemas de IA.
O sistema funciona através da linha de comandos, e possui diversas camadas de teste para avaliar a segurança dos sistemas de aprendizagem automática. Isto permite que os programadores possam desenvolver ataques direcionados aos seus próprios sistemas, mas de forma controlada, e possam analisar a partir dai os resultados.
Como indicado anteriormente, a Microsoft afirma que este mesmo código é usado para testar uma vasta maioria dos sistemas de IA que a empresa cria, e esta acredita que a disponibilização do código pode ajudar a comunidade a desenvolver sistemas mais seguros e ao mesmo tempo eficazes para as mais variadas tarefas.
O código encontra-se disponível a partir do Github da empresa.
Nenhum comentário
Seja o primeiro!