
A Anthropic aproveitou a presença do seu CEO, Dario Amodei, no Fórum Económico Mundial em Davos para revelar uma versão revista e aprofundada da "Constituição" do seu chatbot. Este documento vivo, que serve de bússola moral para o modelo de inteligência artificial, surge agora com novos detalhes sobre como a tecnologia deve operar num contexto global, mantendo-se fiel à missão da empresa de criar sistemas mais seguros e éticos.
O conceito de "IA Constitucional" tem sido a grande bandeira da Anthropic para se distinguir da concorrência. Ao contrário de outros modelos que dependem fortemente do feedback humano para aprender o que é certo ou errado, este sistema é treinado com base num conjunto específico de princípios éticos. A versão original foi publicada em 2023, mas a atualização desta quarta-feira traz mais nuances, especialmente no que toca à segurança dos utilizadores e à aplicação prática da ética.
Os quatro pilares da nova Constituição
O novo documento, que se estende por 80 páginas, detalha de forma holística o tipo de entidade que a empresa deseja que a sua IA seja. Segundo a informação partilhada pela Anthropic, os valores fundamentais do chatbot foram divididos em quatro categorias principais que regem o seu comportamento: ser "amplamente seguro", ser "amplamente ético", cumprir as diretrizes da empresa e ser "genuinamente útil".
Esta abordagem procura afastar a IA de comportamentos tóxicos ou discriminatórios, focando-se numa postura mais contida e democrática. A empresa reforça que o objetivo não é apenas ter uma lista de regras teóricas, mas garantir que o modelo sabe navegar habilmente por situações éticas do mundo real.
Da segurança à questão da consciência
Um dos pontos de maior destaque na revisão é a segurança prática. O Claude está programado para identificar situações de risco, como indícios de problemas de saúde mental, e direcionar imediatamente o utilizador para serviços de emergência apropriados, evitando conselhos que possam colocar a vida humana em perigo. Da mesma forma, existem restrições severas para impedir conversas sobre temas sensíveis, como o desenvolvimento de armas biológicas.
No entanto, o documento termina com uma nota surpreendentemente filosófica e dramática. Os autores levantam a questão sobre se o chatbot possui, de facto, algum tipo de consciência. A empresa admite que o "estatuto moral do Claude é profundamente incerto", sublinhando que esta é uma questão séria que merece consideração, uma visão partilhada por vários filósofos eminentes na teoria da mente. Além de equilibrar os desejos imediatos do utilizador com o seu bem-estar a longo prazo, a Anthropic parece querer manter a porta aberta para o debate sobre a senciência das máquinas.










Nenhum comentário
Seja o primeiro!