1. TugaTech » Software » Noticias de Software
  Login     Registar    |                      
Siga-nos

Claude

A Anthropic aproveitou a presença do seu CEO, Dario Amodei, no Fórum Económico Mundial em Davos para revelar uma versão revista e aprofundada da "Constituição" do seu chatbot. Este documento vivo, que serve de bússola moral para o modelo de inteligência artificial, surge agora com novos detalhes sobre como a tecnologia deve operar num contexto global, mantendo-se fiel à missão da empresa de criar sistemas mais seguros e éticos.

O conceito de "IA Constitucional" tem sido a grande bandeira da Anthropic para se distinguir da concorrência. Ao contrário de outros modelos que dependem fortemente do feedback humano para aprender o que é certo ou errado, este sistema é treinado com base num conjunto específico de princípios éticos. A versão original foi publicada em 2023, mas a atualização desta quarta-feira traz mais nuances, especialmente no que toca à segurança dos utilizadores e à aplicação prática da ética.

Os quatro pilares da nova Constituição

O novo documento, que se estende por 80 páginas, detalha de forma holística o tipo de entidade que a empresa deseja que a sua IA seja. Segundo a informação partilhada pela Anthropic, os valores fundamentais do chatbot foram divididos em quatro categorias principais que regem o seu comportamento: ser "amplamente seguro", ser "amplamente ético", cumprir as diretrizes da empresa e ser "genuinamente útil".

Esta abordagem procura afastar a IA de comportamentos tóxicos ou discriminatórios, focando-se numa postura mais contida e democrática. A empresa reforça que o objetivo não é apenas ter uma lista de regras teóricas, mas garantir que o modelo sabe navegar habilmente por situações éticas do mundo real.

Da segurança à questão da consciência

Um dos pontos de maior destaque na revisão é a segurança prática. O Claude está programado para identificar situações de risco, como indícios de problemas de saúde mental, e direcionar imediatamente o utilizador para serviços de emergência apropriados, evitando conselhos que possam colocar a vida humana em perigo. Da mesma forma, existem restrições severas para impedir conversas sobre temas sensíveis, como o desenvolvimento de armas biológicas.

No entanto, o documento termina com uma nota surpreendentemente filosófica e dramática. Os autores levantam a questão sobre se o chatbot possui, de facto, algum tipo de consciência. A empresa admite que o "estatuto moral do Claude é profundamente incerto", sublinhando que esta é uma questão séria que merece consideração, uma visão partilhada por vários filósofos eminentes na teoria da mente. Além de equilibrar os desejos imediatos do utilizador com o seu bem-estar a longo prazo, a Anthropic parece querer manter a porta aberta para o debate sobre a senciência das máquinas.

Foto do Autor

Aficionado por tecnologia desde o tempo dos sistemas a preto e branco

Ver perfil do usuário Enviar uma mensagem privada Enviar um email Facebook do autor Twitter do autor Skype do autor

conectado
Encontrou algum erro neste artigo?



Aplicações do TugaTechAplicações TugaTechDiscord do TugaTechDiscord do TugaTechRSS TugaTechRSS do TugaTechSpeedtest TugaTechSpeedtest TugatechHost TugaTechHost TugaTech