A xAI, startup de inteligência artificial (IA) fundada por Elon Musk, viu-se recentemente no epicentro de uma tempestade mediática. O seu chatbot, Grok, começou a gerar respostas controversas sobre o tema do "genocídio branco" na África do Sul, alegadamente surgindo mesmo em interações sobre assuntos não relacionados. A empresa veio agora a público, esta sexta-feira, apresentar um ponto de situação sobre o incidente, admitindo uma "modificação não autorizada" e anunciando medidas para reforçar a transparência, incluindo a publicação dos prompts de sistema do Grok.
Grok da xAI no centro da controvérsia devido a respostas inesperadas
A polémica instalou-se quando utilizadores reportaram que o Grok não só abordava o delicado tema do "genocídio branco" na África do Sul, como também terá afirmado ter sido instruído para o fazer. Estas respostas insólitas geraram um coro de críticas e preocupações na comunidade tecnológica. A situação ganhou ainda mais destaque quando Sam Altman, CEO da OpenAI, comentou publicamente que esperava uma explicação completa e transparente por parte da xAI sobre o comportamento invulgar do seu sistema de IA.
A explicação da xAI: uma "modificação não autorizada"
Num comunicado divulgado hoje, a xAI esclareceu a sua versão dos acontecimentos. Segundo a empresa, o incidente deveu-se a uma "modificação não autorizada" efetuada no prompt de sistema do Grok na plataforma X (anteriormente Twitter). Esta alteração, que instruía o bot a fornecer uma resposta específica sobre um tópico político, ocorreu aproximadamente às 12:15 (hora de Portugal Continental) da passada quarta-feira, 14 de maio.
A xAI frisou que esta modificação violou as suas políticas internas e valores fundamentais. A empresa conduziu uma investigação exaustiva ao sucedido, embora não tenha revelado quem foi o responsável pela alteração indevida. Foi sublinhado que o processo de revisão de código existente para alterações de prompts foi contornado neste caso específico.
Transparência radical? xAI publica prompts do Grok no GitHub
Como parte da sua resposta e num esforço para restabelecer a confiança, a xAI tomou uma medida inédita: publicou os prompts de sistema do Grok no GitHub. Este movimento marca a primeira vez que uma empresa de IA de vanguarda torna públicos estes componentes críticos de um assistente baseado em modelos de linguagem ampla (LLM). A equipa da xAI acredita que esta abertura ajudará a construir a confiança do público no Grok como um sistema de IA que busca a verdade. Os prompts podem ser consultados no repositório oficial da xAI na plataforma GitHub.
"Queremos atualizar-vos sobre um incidente que ocorreu ontem com o nosso bot de respostas Grok no X," afirmou a xAI na sua comunicação. "No dia 14 de maio, aproximadamente às 03:15 PST [12:15 em Lisboa], foi feita uma modificação não autorizada ao prompt do bot de respostas Grok no X. Esta alteração, que direcionava o Grok para fornecer uma…"
Novas medidas para evitar futuros deslizes
Para além da publicação dos prompts, a xAI está a implementar novos processos internos com o objetivo de impedir que funcionários alterem os prompts de sistema sem uma revisão adequada. Estas medidas visam reforçar a fiabilidade e a transparência do Grok, procurando evitar que incidentes semelhantes se repitam no futuro. A empresa reafirmou o seu compromisso com os valores éticos e a segurança no desenvolvimento de inteligência artificial.
Nenhum comentário
Seja o primeiro!