Em finais de Junho o GitHub revelou a sua n ova ferramenta “Copilot”, que permite usar os sistemas de Inteligência Artificial para desenvolver código automaticamente. Este sistema, basicamente, usa IA para desenvolver o código necessário para determinadas partes de software – e nas mais variadas linguagens.
O GitHub Copilot foi desenvolvido em parceria com a OpenAI, fazendo uso da tecnologia GPT-3, e analisando os códigos em repertórios abertos pela internet, modificando os mesmos para se integrar naquilo que o utilizador pretenda realizar.
No entanto, um grupo de investigadores da Universidade de Nova Iorque decidiu colocar este sistema à prova, mas os resultados ficaram longe de ser perfeitos. A investigação tinha como objetivo analisar a qualidade e segurança do código criado de forma automática, sendo que o resultado demonstra que o código criado pela plataforma é consideravelmente inseguro para uso.
Colocando o sistema sobre 89 cenários diferentes, e criando 1692 programas diferentes em linguagens igualmente diversificadas, os investigadores verificaram que o código produzido possuía graves falhas a nível de execução, desempenho ou até segurança. 40% do código nestes programas poderiam ser explorados para atividades maliciosas nos sistemas.
Além disso, o sistema encontra-se ainda longe de criar código otimizado para todas as situações. Apesar de criar código automaticamente, e que funciona numa primeira impressão, o código criado pode não estar otimizado para as tarefas que se pretende, ou pode conter falhas que permitem erros ou ataques diversos.
A conclusão do estudo é bastante clara: o código criado pelo Copilot é vulnerável, e os programadores são aconselhados a terem atenção ao mesmo antes de o usarem de forma publica. Mas também fica a indicação que, realmente, o Copilot permite gerar uma grande parte do código rapidamente, sem grande esforço, o que pode ser uma ajuda em determinadas situações.
Nenhum comentário
Seja o primeiro!