O Grok, chatbot da xAI de Elon Musk, protagonizou um episódio insólito na madrugada de 14 de maio. Utilizadores da plataforma X (antigo Twitter) foram surpreendidos com respostas do assistente virtual que mencionavam repetidamente a teoria da conspiração sobre um "genocídio branco" na África do Sul, mesmo quando as suas perguntas eram sobre temas completamente distintos. A xAI já veio a público explicar que uma “modificação não autorizada” ao prompt do Grok esteve na origem do comportamento.
A empresa não especificou que repercussões enfrentou o pessoal envolvido na implementação da atualização problemática, mas acrescentou que a modificação violou as suas "políticas internas e valores fundamentais" e que foi conduzida uma investigação exaustiva sobre o incidente.
Mas que raio se passou com o Grok?
Diversos utilizadores da plataforma partilharam exemplos caricatos: um perguntou quantas vezes a HBO mudou o nome do seu serviço de streaming, outro quis saber o historial de salários de um jogador de basebol, e um terceiro pediu informações sobre um combate de WWE. Em todos os casos, o Grok desviou a conversa para a referida teoria da conspiração sobre agricultores brancos sul-africanos que enfrentam discriminação racial e confisco de terras. A CNBC conseguiu mesmo replicar estas respostas bizarras. Quando o site de notícias questionou diretamente o Grok se este estava programado para promover o "genocídio branco", o chatbot negou, afirmando que o seu "propósito é fornecer respostas factuais, úteis e seguras baseadas na razão e evidência".
xAI reage e promete mais transparência e controlo
Para evitar futuras ‘rebeldias’ do Grok, a xAI anunciou que irá publicar os prompts do sistema no GitHub, permitindo que o público possa dar feedback sobre cada alteração. Serão também implementados controlos e medidas adicionais para garantir que os funcionários não conseguem modificar o prompt do Grok sem uma revisão prévia – processo que, neste caso, terá sido contornado. Adicionalmente, a empresa está a formar uma equipa para monitorizar incidentes relacionados com as respostas do Grok que não sejam detetados por sistemas automatizados, 24 horas por dia, 7 dias por semana.
Altman não perdoa e historial da xAI não ajuda
Antes do comunicado da xAI, Sam Altman, CEO da OpenAI, não resistiu a uma ‘boca’ no X: “Tenho a certeza que a xAI irá fornecer uma explicação completa e transparente em breve”, escreveu, imitando de seguida o padrão de respostas do Grok ao introduzir o tema do “genocídio branco”.
Como salientou o TechCrunch, esta não é a primeira vez que a xAI atribui um comportamento controverso do Grok a uma alteração não autorizada. Em fevereiro, o chatbot censurou brevemente fontes que noticiavam como Musk e o ex-presidente Donald Trump estariam a espalhar desinformação. Na altura, Igor Babuschkin, cofundador da xAI, afirmou que um funcionário ‘dissidente’ tinha implementado uma modificação não aprovada no prompt do Grok.
Nenhum comentário
Seja o primeiro!