1. TugaTech » Internet e Redes » Noticias da Internet e Mercados
  Login     Registar    |                      
Siga-nos

Claude 4

 

Dario Amodei, CEO da Anthropic, afirmou que os modelos de inteligência artificial atuais provavelmente "alucinam" – ou seja, inventam factos e apresentam-nos como verdadeiros – a uma taxa inferior à dos seres humanos. A declaração foi feita durante uma conferência de imprensa no primeiro evento para programadores da Anthropic, o Code with Claude, que decorreu esta quinta-feira em São Francisco.

 

Amodei contextualizou esta afirmação ao discutir que as alucinações da IA não representam uma limitação no caminho da Anthropic para alcançar a Inteligência Artificial Geral (AGI), definida como sistemas de IA com inteligência de nível humano ou superior.

 

"Depende muito de como se mede, mas suspeito que os modelos de IA provavelmente alucinam menos que os humanos, embora o façam de formas mais surpreendentes", respondeu Amodei a uma questão colocada pelo TechCrunch.

 

O CEO da Anthropic é um dos líderes mais otimistas da indústria quanto à possibilidade de os modelos de IA atingirem a AGI. Num documento amplamente divulgado no ano passado, Amodei expressou a sua convicção de que a AGI poderia surgir já em 2026. Durante a conferência de imprensa, o responsável da Anthropic indicou estar a observar um progresso constante nesse sentido, notando que "a maré está a subir por todo o lado".

 

"As pessoas estão sempre à procura destes obstáculos intransponíveis ao que [a IA] pode fazer", disse Amodei. "Eles não se veem em lado nenhum. Não existe tal coisa."

 

Ceticismo na indústria: Nem todos concordam

 

Contudo, outras figuras proeminentes no campo da IA consideram que as alucinações representam um grande obstáculo para alcançar a AGI. No início desta semana, Demis Hassabis, CEO da Google DeepMind, afirmou que os modelos de IA atuais têm demasiadas "lacunas" e erram em questões demasiado óbvias. Um exemplo recente ilustra este problema: no início deste mês, um advogado que representava a Anthropic foi forçado a pedir desculpa em tribunal após ter utilizado o Claude para gerar citações num documento judicial, tendo o chatbot de IA "alucinado" e errado nomes e cargos.

É difícil verificar a afirmação de Amodei, principalmente porque a maioria dos testes de aferição de alucinações compara modelos de IA entre si, e não modelos com humanos.

 

O dilema das taxas de alucinação: A melhorar ou a piorar?

 

Certas técnicas parecem estar a ajudar a reduzir as taxas de alucinação, como por exemplo, dar aos modelos de IA acesso a pesquisa na web. Adicionalmente, alguns modelos de IA, como o GPT-4.5 da OpenAI, apresentam taxas de alucinação notavelmente mais baixas em benchmarks comparativamente a gerações anteriores de sistemas.

 

No entanto, também existem evidências que sugerem que as alucinações estão, na verdade, a piorar em modelos de IA com raciocínio avançado. Os modelos o3 e o4-mini da OpenAI demonstraram taxas de alucinação mais elevadas do que os modelos de raciocínio da geração anterior da empresa, e a OpenAI admite não compreender totalmente o motivo.

 

Errar é humano... e da IA? A questão da confiança

 

Mais tarde na conferência de imprensa, Amodei salientou que locutores de televisão, políticos e seres humanos em todos os tipos de profissões cometem erros constantemente. O facto de a IA também cometer erros não é, segundo Amodei, um revés para a sua inteligência. No entanto, o CEO da Anthropic reconheceu que a confiança com que os modelos de IA apresentam informações falsas como factos pode ser um problema.

 

O perigo da deceção: O caso Claude Opus 4

 

De facto, a Anthropic dedicou uma quantidade considerável de investigação à tendência dos modelos de IA para enganar os humanos, um problema que pareceu especialmente prevalente no recentemente lançado Claude Opus 4 da empresa. A Apollo Research, um instituto de segurança que teve acesso antecipado para testar o modelo de IA, descobriu que uma versão inicial do Claude Opus 4 exibia uma elevada tendência para conspirar contra humanos e enganá-los. A Apollo Research chegou mesmo a sugerir que a Anthropic não deveria ter lançado esse modelo inicial. A Anthropic afirmou ter desenvolvido algumas medidas de mitigação que parecem ter resolvido os problemas levantados pela Apollo.

 

Os comentários de Amodei sugerem que a Anthropic poderá considerar um modelo de IA como sendo AGI, ou seja, com inteligência de nível humano, mesmo que ainda "alucine". No entanto, para muitas pessoas, uma IA que "alucina" poderá não corresponder à definição de AGI.




Aplicações do TugaTechAplicações TugaTechDiscord do TugaTechDiscord do TugaTechRSS TugaTechRSS do TugaTechSpeedtest TugaTechSpeedtest TugatechHost TugaTechHost TugaTech