
O Secretário de Defesa dos EUA, Pete Hegseth, deu à Anthropic até sexta-feira para abandonar certas restrições de segurança para uso militar, conforme avança o Axios. O diretor executivo da empresa, Dario Amodei, reuniu-se com Hegseth ontem, à medida que o Pentágono intensificou a pressão para que a tecnológica ceda às suas exigências.
O impasse entre a segurança e as exigências governamentais
Os criadores do modelo Claude enfrentam uma escolha difícil: ou cedem aos pedidos do governo para remover os limites em certas aplicações militares, ou podem ser forçados a adaptar o seu modelo de inteligência artificial às necessidades governamentais ao abrigo da Lei de Produção de Defesa.
Por sua vez, a empresa já afirmou que, embora esteja disposta a adotar certas políticas para o Pentágono, não vai permitir que o seu modelo seja utilizado para a vigilância em massa de cidadãos americanos ou para o desenvolvimento de armas autónomas.
Atualmente, o Claude é o único modelo de inteligência artificial empregue em alguns dos trabalhos mais sensíveis do governo. Um oficial de defesa referiu que a única razão pela qual ainda mantêm conversações com a empresa é porque precisam deles de imediato, acrescentando que o problema é que a tecnologia desenvolvida é realmente muito boa.
A pressão da concorrência no setor de defesa
Perante este cenário, o Pentágono está a acelerar as conversações com a OpenAI e a Google sobre a utilização dos seus modelos em trabalhos classificados. O ChatGPT e o Gemini já estão aprovados para uso governamental não classificado. Além disso, a xAI, de Elon Musk, assinou recentemente um acordo com o Departamento de Defesa para utilizar o Grok em sistemas classificados.












Nenhum comentário
Seja o primeiro!