
A tensão entre o Pentágono e as principais empresas de inteligência artificial está a aumentar. O governo norte-americano quer que marcas como a Anthropic permitam que as forças militares utilizem as suas tecnologias para "todos os fins legais". No entanto, a criadora do modelo Claude está a oferecer uma forte resistência a esta exigência, segundo um novo relatório do Axios.
A pressão do Pentágono sobre as tecnológicas
A administração de Donald Trump tem feito exigências semelhantes a outras gigantes do setor, incluindo a OpenAI, a Google e a xAI. De acordo com um funcionário do governo dos Estados Unidos, uma destas empresas já concordou com os termos propostos, enquanto outras duas demonstraram alguma flexibilidade nas negociações.
A Anthropic mantém-se como a voz mais discordante neste cenário. A empresa tem sido a mais resistente em ceder a um uso militar das suas plataformas sem as devidas restrições éticas.
Linhas vermelhas e a captura de Nicolás Maduro
Como resposta a esta recusa, o Pentágono estará a ameaçar cancelar o contrato de 200 milhões de dólares (cerca de 180 milhões de euros) que mantém com a tecnológica. As divergências não são recentes, existindo relatos desde janeiro de fortes desacordos entre os responsáveis da empresa e oficiais do Departamento de Defesa sobre como as plataformas de IA poderiam ser aplicadas.
O impacto destas ferramentas em operações reais já é conhecido. A tecnologia de IA foi utilizada pelas forças militares dos EUA na operação que levou à captura do então presidente venezuelano Nicolás Maduro, conforme avançado pelo The Wall Street Journal.
Apesar de a ferramenta ter sido aplicada no terreno, um porta-voz da empresa esclareceu que não existiram discussões sobre o uso específico da IA para operações com o Departamento de Guerra. A principal prioridade da marca foca-se nas suas Políticas de Utilização, destacando limites rígidos e inegociáveis no que toca à criação de armas totalmente autónomas e à vigilância doméstica em massa.












Nenhum comentário
Seja o primeiro!