1. TugaTech » Internet e Redes » Noticias da Internet e Mercados
  Login     Registar    |                      
Siga-nos

Google Research AI

Um dos maiores desafios da Inteligência Artificial (IA) moderna é o chamado "esquecimento catastrófico". Simplificando, é a tendência que um modelo de IA tem para perder conhecimento prévio sempre que é atualizado com nova informação ou aprende uma nova competência. Para resolver este entrave, a Google Research desenvolveu uma nova técnica de machine learning: o "Nested Learning" (Aprendizagem Aninhada).

Uma IA inspirada na neuroplasticidade

A Google explica que o Nested Learning representa uma mudança de paradigma na forma como os modelos de IA são construídos e otimizados. Tradicionalmente, a arquitetura do modelo e o seu algoritmo de otimização são vistos como entidades separadas. A nova abordagem, no entanto, trata-os como um só elemento.

A inspiração vem diretamente do cérebro humano. O Nested Learning trata os modelos de IA como uma série de problemas de otimização mais pequenos, interligados e "aninhados". Crucialmente, cada um destes sub-problemas pode aprender e atualizar o seu conhecimento a um ritmo específico, numa técnica designada como "atualizações em múltiplas escalas de tempo".

Este processo simula a neuroplasticidade do cérebro humano, onde diferentes partes se adaptam a novas experiências sem apagar memórias antigas. Em vez de o modelo de IA se atualizar uniformemente e "limpar" o que sabia antes, o Nested Learning permite um sistema dinâmico e em camadas que retém o conhecimento antigo enquanto adquire novo.

"Hope": O protótipo que não se esquece

Para validar estes princípios, a Google Research desenhou um modelo de prova de conceito chamado "Hope". Trata-se de uma arquitetura recorrente auto-modificável, capaz de otimizar a sua própria memória.

O Hope utiliza o que os investigadores chamam de "Sistemas de Memória Contínua" (Continuum Memory Systems). Este conceito abandona a ideia tradicional de dividir a memória em "curto prazo" e "longo prazo". Em vez disso, trata a memória como um espectro de módulos em camadas, onde cada um é atualizado com a sua própria frequência. Segundo a Google, isto permite ao modelo gerir e reter mais dados ao longo do tempo, de forma mais rica e organizada.

Um futuro promissor para o Google Gemini

Nos testes, o Hope demonstrou ser capaz de superar consistentemente os modelos de última geração (state-of-the-art) em desafios de memória de longo contexto. Um exemplo são as tarefas "Needle-In-Haystack" (literalmente, agulha num palheiro), onde o modelo tem de recordar um detalhe específico escondido num documento de grandes dimensões.

Além disso, o Hope revelou-se mais preciso e eficiente na modelação de linguagem geral. A Google descreve esta abordagem como uma fundação robusta para ligar os atuais LLMs e a sua natureza "esquecida" ao funcionamento do cérebro humano.

Espera-se que estas melhorias venham a ser integradas em futuras versões do Google Gemini. No entanto, a gigante tecnológica não partilhou qualquer cronograma sobre quando esta nova capacidade de aprendizagem contínua poderá chegar ao seu principal modelo de IA.




Aplicações do TugaTechAplicações TugaTechDiscord do TugaTechDiscord do TugaTechRSS TugaTechRSS do TugaTechSpeedtest TugaTechSpeedtest TugatechHost TugaTechHost TugaTech