
A Anthropic, empresa de inteligência artificial, anunciou uma alteração significativa nos seus Termos de Serviço e Política de Privacidade que irá impactar diretamente os utilizadores dos seus modelos de linguagem. A partir de agora, as transcrições das conversas com o assistente Claude e as sessões de programação no Claude Code serão utilizadas para treinar os futuros modelos de IA da empresa, a menos que os utilizadores recusem explicitamente esta opção.
Os utilizadores têm até ao dia 28 de setembro de 2025 para tomar uma decisão. Ao aceitar os novos termos, autoriza a utilização imediata dos seus dados. Para aqueles que não desativarem a opção, a empresa reterá os dados por um período de até cinco anos.
O que muda e quem é afetado?
Esta nova política de recolha de dados afeta todos os planos de consumo, incluindo o Claude Free (gratuito), Pro, Max e o Claude Code. É importante sublinhar que a mudança não é retroativa para conversas antigas, a não ser que o utilizador decida retomar um diálogo antigo. A partir desse momento, essa conversa também passará a estar incluída no conjunto de dados para treino.
Para garantir a privacidade dos utilizadores, a Anthropic afirma que utiliza ferramentas automatizadas para filtrar ou ocultar informações que possam ser consideradas sensíveis.
Como pode impedir o uso dos seus dados?
A decisão está nas mãos de cada utilizador. Ao ser confrontado com o aviso sobre a nova política, pode simplesmente desativar a opção correspondente para impedir que os seus dados sejam utilizados.
Caso já tenha aceitado ou queira rever a sua escolha, pode fazê-lo a qualquer momento. Basta aceder às "Definições" (Settings), selecionar "Privacidade" (Privacy), seguido de "Definições de Privacidade" (Privacy Settings), e desmarcar a opção "Ajudar a melhorar o Claude" (Help improve Claude). Uma vez desativada, a Anthropic deixará de recolher os seus dados para treino, embora mantenha e continue a utilizar qualquer informação que já tenha sido partilhada.
Utilizadores empresariais podem respirar de alívio
As alterações não se aplicam aos planos comerciais e empresariais da empresa. Clientes que utilizem o Claude Gov, Claude for Work ou que acedam aos modelos através de uma API em plataformas como a Amazon Bedrock e Google Cloud Vertex AI não serão afetados por esta nova política de recolha e utilização de dados para treino dos modelos de inteligência artificial.