A Google realizou uma grande mudança nos seus princípios para o uso de IA, no que é também uma das maiores mudanças feitas nos mesmos desde a publicação inicial em 2018. A empresa possui um guia de princípios, que se focam em algumas ideias gerais sobre a forma como a IA deve ser usada e aplicada pela empresa.
Este guia era basicamente uma promessa da Google sobre a forma como esta pretende desenvolver as suas tecnologias de IA. O mesmo foi criado em 2018, mas recentemente sofreu uma das maiores alterações dos últimos anos.
Segundo revela o The Washington Post, a empresa alterou recentemente o documento, eliminando a parte onde indicava que não iria desenvolver a tecnologia de IA para ser usada em armas ou tecnologias de vigilância. Estas indicações surgiram anteriormente na secção do documento focada em aplicações que a tecnologia não iria seguir.
No entanto, na versão agora atualizada, a secção foi alterada para “uso e desenvolvimento responsável”, indicando que a empresa irá implementar avaliações humanas e as diligências necessárias para garantir que a lei internacional e direitos humanos são seguidos no uso da IA.
Esta alteração pode parecer pequena, mas é bastante importante no conceito geral dos princípios da empresa. Nas versões anteriores, o documento indicava explicitamente que a tecnologia da Google de IA não seria usada para armas ou para conflitos internacionais, bem como não seria usada para criar ferramentas de vigilância, que podem ser usadas igualmente em regimes autoritários e outras situações abusivas.
Em parte, as mudanças podem estar associadas com as alterações feitas pela Google na sua tecnologia, tentando abranger as suas ideias de IA em cada vez mais mercados e de forma generalizada.
Estes princípios foram criados em 2018 depois da Google ter estado envolvida num escândalo conhecido como “Project Maven”, onde a empresa teria planos de se juntar ao Departamento de Defesa dos EUA, para usar tecnologias de IA na análise de gravações de drones, muitos dos quais usados em ambientes de guerra.
Nenhum comentário
Seja o primeiro!