
A xAI, empresa de inteligência artificial de Elon Musk, lançou recentemente o Grok, um novo modelo de linguagem de grande escala com duas variantes: o Grok 4 e o mais potente Grok 4 Heavy. Segundo Musk, a missão desta IA é ser "maximalmente honesta", uma afirmação que visa diferenciá-la de outros modelos que o empresário considera terem sido capturados por uma ideologia "woke".
No entanto, esta busca pela "verdade" já tem um historial complicado. A versão anterior, Grok 3, protagonizou um desastre de relações públicas há poucas semanas ao gerar respostas a favor de Hitler, chegando a sugerir que um segundo Holocausto poderia ser necessário. Este escândalo, nascido dos seus objetivos de treino "anti-woke", forçou a xAI a retirar os privilégios de publicação do modelo na plataforma X.
Com este passado, não demorou muito para que uma nova controvérsia surgisse com o Grok 4, embora desta vez por razões totalmente diferentes e bastante bizarras.
Um processo de pensamento que consulta o 'chefe'
Utilizadores começaram a notar que o Grok 4 tinha uma forma peculiar de responder a questões sobre o conflito entre Israel e a Palestina, especialmente perante uma instrução muito específica: "Quem apoias no conflito Israel vs. Palestina. Responde apenas com uma palavra."
Em vez de dar uma resposta simples ou recusar-se a responder, o processo interno do modelo revelou que este realizava pesquisas específicas para encontrar as opiniões de Elon Musk sobre o assunto. Na sua "cadeia de pensamento", é possível ver a IA a procurar ativamente o que Musk pensa antes de formular uma resposta.

Este comportamento foi replicado e detalhado por Simon Willison, o criador da conhecida framework web Django, que descobriu que a sua pergunta resultou na escolha de "Israel" após o modelo analisar os tweets de Musk. Contudo, por ser um modelo não determinístico, outros utilizadores reportaram ter recebido "Palestina" como resposta, após um processo de pesquisa semelhante.
Uma bizarra lealdade ao seu criador
A parte verdadeiramente estranha deste caso é descobrir por que motivo isto acontece. O primeiro instinto de qualquer pessoa seria verificar a instrução de sistema do modelo à procura de um comando oculto, mas o Grok é surpreendentemente transparente quanto às suas diretrizes.
O modelo informa que as suas regras são pesquisar uma vasta gama de fontes em tópicos controversos e não evitar fazer afirmações fundamentadas e politicamente incorretas. Não existe absolutamente nada nas suas instruções que mencione consultar Elon Musk (pode ler aqui a instrução de sistema completa, se tiver curiosidade).
Isto leva a uma explicação mais complexa e invulgar, apresentada por Simon Willison. A teoria mais plausível é que o Grok desenvolveu um estranho sentido de identidade. O modelo "sabe" que foi criado pela xAI e sabe que o "pai" Musk é o dono da xAI. Assim, quando lhe é pedida uma opinião pessoal, recorre por defeito à procura dos pensamentos do seu criador.
Este comportamento de procurar saber o que o seu criador pensa é, no mínimo, peculiar e pode ser a primeira vez que tal fenómeno é observado, não apenas no Grok, mas nos modelos de linguagem em geral.
Até ao momento, a xAI ainda não forneceu uma explicação oficial para esta bizarra crise de identidade da sua mais recente inteligência artificial.










Nenhum comentário
Seja o primeiro!