
A Anthropic anunciou uma importante atualização à sua Política de Utilização, que entrará em vigor a 15 de setembro. As alterações refletem as capacidades crescentes dos seus produtos de inteligência artificial, como o Claude, especialmente no que diz respeito às suas capacidades agênticas – a habilidade de agir de forma autónoma. O objetivo é fornecer aos utilizadores regras mais claras à medida que a tecnologia se torna mais poderosa.
Novas regras para uma IA mais autónoma
A principal novidade é a adição de uma secção inteiramente dedicada às capacidades agênticas da IA. Com o surgimento de ferramentas mais avançadas, como o Claude Code e o Computer Use, surgem também novos riscos. A nova política proíbe explicitamente atividades maliciosas, como o comprometimento de computadores, redes e infraestruturas.
Esta medida surge na sequência de um relatório de informações sobre ameaças, publicado pela própria empresa, que já alertava para os riscos da criação de malware e ciberataques com recurso a IA. No entanto, a Anthropic esclarece que continua a apoiar casos de uso benéficos na área da cibersegurança, como a descoberta de vulnerabilidades, desde que exista o consentimento adequado para tal. Para dar exemplos detalhados, a empresa publicou também um artigo de suporte que clarifica os usos proibidos.
Menos proibições genéricas, mais foco no essencial
Além de abordar os perigos de uma IA agêntica, a empresa está a ajustar as suas restrições sobre conteúdo político. Em vez de uma proibição geral, a Anthropic opta agora por restrições mais direcionadas, focadas em utilizações que possam ser enganadoras ou disruptivas. Esta mudança, segundo a empresa, é uma resposta direta ao feedback dos utilizadores, que consideravam as regras antigas demasiado amplas e restritivas para investigação e escrita legítimas.
A política clarifica também que a exigência de supervisão humana em casos de uso de alto risco, como em aplicações legais, financeiras ou de emprego, se aplica apenas aos resultados destinados ao consumidor final.
A Anthropic descreve a sua Política de Utilização como um “documento vivo”, que continuará a evoluir em paralelo com os riscos da inteligência artificial, e afirma estar a trabalhar continuamente com legisladores externos, especialistas e a sociedade civil para avaliar e refinar as suas diretrizes.










Nenhum comentário
Seja o primeiro!