1. TugaTech » Internet e Redes » Noticias da Internet e Mercados
  Login     Registar    |                      
Siga-nos

relógio queimado

É uma das ironias mais curiosas da era moderna da tecnologia. Temos ao nosso dispor assistentes de Inteligência Artificial capazes de escrever código complexo, compor poesia ou resumir livros inteiros em segundos. No entanto, se perguntar ao ChatGPT "que horas são?", a resposta pode ser uma desilusão, uma recusa ou, pior ainda, uma mentira completa.

Para um computador ou smartphone convencional, saber as horas é a tarefa mais trivial do mundo, graças aos pequenos chips de relógio interno que funcionam ininterruptamente. Contudo, para os Grandes Modelos de Linguagem (LLMs) que alimentam ferramentas como o chatbot da OpenAI, o tempo é um conceito estranho e escorregadio. E, embora pareça um erro básico, existe uma razão técnica fascinante para esta "ignorância".

O náufrago numa ilha de livros

A raiz do problema reside na própria natureza de como estes modelos são construídos. Ao contrário de um sistema operativo que está constantemente ligado ao hardware do relógio, um LLM vive num "espaço de linguagem".

Segundo especialistas em robótica e IA, citados numa reportagem do The Verge, podemos imaginar o ChatGPT como um náufrago numa ilha deserta, rodeado por uma biblioteca gigante com todo o conhecimento humano escrito até uma certa data, mas sem um único relógio de pulso. O modelo processa os pedidos dos utilizadores e prevê respostas baseando-se apenas nos dados de treino estáticos que possui.

Por defeito, estes sistemas não têm um fluxo de dados em tempo real. Eles não "vivem" no momento presente da mesma forma que nós ou que o relógio da barra de tarefas do Windows. A menos que utilizem ferramentas externas, como a pesquisa na web, eles estão congelados no tempo.

O custo de "saber" as horas

A questão que se impõe é: porque é que a OpenAI (ou a Google com o Gemini) simplesmente não liga o relógio do sistema ao chat? A resposta técnica prende-se com a eficiência e a chamada "janela de contexto".

A janela de contexto é o espaço limitado de informação que a IA consegue "lembrar" e processar durante uma conversa. Cada pedaço de informação inserido no sistema ocupa espaço. Se os programadores injetassem a hora atual no contexto do modelo a cada segundo ou minuto, estariam a encher essa memória preciosa com "ruído".

Imagine que está a tentar ter uma conversa profunda com alguém, mas essa pessoa está constantemente a gritar a hora exata a cada frase que diz. Rapidamente, a conversa tornar-se-ia confusa e a capacidade de raciocínio sobre o tópico principal degradar-se-ia. Para a IA, a hora constante é apenas "lixo" de dados que pode confundir o processo de previsão de texto. É muito mais eficiente inserir apenas a data no início da sessão (o que o sistema já faz) do que manter um relógio em tempo real.

Alucinações e limitações visuais

O problema agrava-se quando o modelo tenta adivinhar. Como os LLMs são desenhados para prever a próxima palavra mais provável numa frase e para agradar ao utilizador, muitas vezes eles "alucinam". Se não souberem a hora, podem simplesmente inventar uma que pareça plausível, em vez de admitirem a limitação.

Curiosamente, a dificuldade com o tempo estende-se ao domínio visual. Testes realizados com vários modelos de topo mostraram que, quando apresentados com imagens de relógios analógicos, as IAs muitas vezes falham redondamente na leitura da posição dos ponteiros.

Atualmente, a forma mais fiável de obter as horas através destas ferramentas é garantir que elas têm acesso à Web ou a ferramentas do sistema ativas. Quando o ChatGPT recorre à pesquisa no Bing ou o Gemini se conecta às ferramentas da Google, eles conseguem "olhar para o relógio" externo e dar a resposta correta. Mas, no seu estado puro e isolado, estas mentes digitais continuam a viver num mundo sem tempo.




Aplicações do TugaTechAplicações TugaTechDiscord do TugaTechDiscord do TugaTechRSS TugaTechRSS do TugaTechSpeedtest TugaTechSpeedtest TugatechHost TugaTechHost TugaTech