1. TugaTech » Internet e Redes » Noticias da Internet e Mercados » Anthropic vai treinar o Claude com as suas conversas, mas a decisão final é sua
  Login     Registar    |                      
Siga-nos

Você não está conectado. Conecte-se ou registre-se

  

Opções



Mensagens anteriores

Anthropic vai treinar o Claude com as suas conversas, mas a decisão final é sua em Seg 1 Set 2025 - 10:04

DJPRMF

Anthropic com chats

A Anthropic, empresa de inteligência artificial, anunciou uma alteração significativa nos seus Termos de Serviço e Política de Privacidade que irá impactar diretamente os utilizadores dos seus modelos de linguagem. A partir de agora, as transcrições das conversas com o assistente Claude e as sessões de programação no Claude Code serão utilizadas para treinar os futuros modelos de IA da empresa, a menos que os utilizadores recusem explicitamente esta opção.

Os utilizadores têm até ao dia 28 de setembro de 2025 para tomar uma decisão. Ao aceitar os novos termos, autoriza a utilização imediata dos seus dados. Para aqueles que não desativarem a opção, a empresa reterá os dados por um período de até cinco anos.

O que muda e quem é afetado?

Esta nova política de recolha de dados afeta todos os planos de consumo, incluindo o Claude Free (gratuito), Pro, Max e o Claude Code. É importante sublinhar que a mudança não é retroativa para conversas antigas, a não ser que o utilizador decida retomar um diálogo antigo. A partir desse momento, essa conversa também passará a estar incluída no conjunto de dados para treino.

Para garantir a privacidade dos utilizadores, a Anthropic afirma que utiliza ferramentas automatizadas para filtrar ou ocultar informações que possam ser consideradas sensíveis.

Como pode impedir o uso dos seus dados?

A decisão está nas mãos de cada utilizador. Ao ser confrontado com o aviso sobre a nova política, pode simplesmente desativar a opção correspondente para impedir que os seus dados sejam utilizados.

Caso já tenha aceitado ou queira rever a sua escolha, pode fazê-lo a qualquer momento. Basta aceder às "Definições" (Settings), selecionar "Privacidade" (Privacy), seguido de "Definições de Privacidade" (Privacy Settings), e desmarcar a opção "Ajudar a melhorar o Claude" (Help improve Claude). Uma vez desativada, a Anthropic deixará de recolher os seus dados para treino, embora mantenha e continue a utilizar qualquer informação que já tenha sido partilhada.

Utilizadores empresariais podem respirar de alívio

As alterações não se aplicam aos planos comerciais e empresariais da empresa. Clientes que utilizem o Claude Gov, Claude for Work ou que acedam aos modelos através de uma API em plataformas como a Amazon Bedrock e Google Cloud Vertex AI não serão afetados por esta nova política de recolha e utilização de dados para treino dos modelos de inteligência artificial.



  As mensagens apresentadas em cima não são actualizadas automaticamente pelo que se uma nova mensagem for colocada enquanto se encontra nesta página, não irá aparecer na lista em cima.


Aplicações do TugaTechAplicações TugaTechDiscord do TugaTechDiscord do TugaTechRSS TugaTechRSS do TugaTechSpeedtest TugaTechSpeedtest TugatechHost TugaTechHost TugaTech