
A corrida pela supremacia no campo da inteligência artificial continua a aquecer. Enquanto modelos como o GPT-5 geram expetativas, os seus concorrentes não dormem em serviço. A Meta, com a sua equipa de Superinteligência, e a Anthropic, com o seu assistente Claude, estão a fazer movimentos estratégicos. A mais recente novidade vem da Anthropic, que vai passar a usar as transcrições de conversas para treinar os seus modelos de IA, colocando, no entanto, a escolha nas mãos dos utilizadores.
Uma decisão que está nas mãos do utilizador
Segundo um anúncio oficial da Anthropic, a empresa vai em breve permitir que os utilizadores dos seus planos Claude Free, Pro e Max optem por partilhar as suas conversas para o treino dos modelos. A justificação é a de que esta partilha de dados permitirá construir modelos mais capazes e reforçar as suas barreiras de segurança.
Para os novos utilizadores, a opção de partilha de dados será apresentada durante o processo de registo. Já os utilizadores atuais receberão uma notificação pop-up a solicitar que tomem uma decisão. Esta escolha pode ser feita de imediato ou adiada até ao dia 28 de setembro, data a partir da qual será obrigatório definir uma preferência. É importante notar que esta alteração aplica-se apenas a novas conversas ou sessões retomadas após a decisão, não afetando o histórico de conversas anterior.
Quem é afetado e quem fica de fora?
Esta atualização aos termos de serviço não abrange todos os utilizadores da mesma forma. A política de treino com dados dos utilizadores será aplicada exclusivamente aos clientes dos planos de consumo individual: Claude Free, Pro e Max.
Ficam de fora todos os clientes comerciais, o que inclui os planos Claude for Work, Claude Gov (para governos), Claude for Education e todo o consumo baseado na API da plataforma. Para estes utilizadores, as políticas de privacidade e utilização de dados permanecem inalteradas, garantindo que as suas informações não serão usadas para treinar os modelos da Anthropic.
Mais dados, por mais tempo
Uma das mudanças mais significativas para quem optar por partilhar os seus dados é o aumento do período de retenção. Atualmente de 30 dias, este período passará para cinco anos. A Anthropic justifica esta alteração com a natureza demorada do treino de modelos de IA, que pode levar meses ou até anos. Ter acesso aos dados por um período mais longo é, segundo a empresa, essencial para o desenvolvimento.
Felizmente, a decisão não é definitiva. Os utilizadores que inicialmente concordarem em partilhar as suas conversas podem, a qualquer momento, desativar essa opção através das definições de privacidade. Esta ação impedirá que a Anthropic utilize dados futuros para treinar novos modelos. No entanto, a empresa ressalva que os dados partilhados anteriormente poderão continuar a ser aproveitados em modelos que já estejam em treino ou que já tenham sido treinados.










Nenhum comentário
Seja o primeiro!