A xAI, empresa de inteligência artificial (IA) liderada por Elon Musk, não cumpriu o prazo que ela própria estabeleceu para a publicação de uma estrutura finalizada sobre segurança em IA. O alerta foi dado pelo grupo de vigilância The Midas Project.
Prazo autoimposto expirou sem aviso
A empresa tinha definido uma meta para apresentar uma versão revista da sua política de segurança, mas a data limite de 10 de maio chegou e passou sem qualquer comunicação ou justificação por parte da xAI nos seus canais oficiais. Este falhanço levanta novas questões sobre o compromisso da organização com as práticas de desenvolvimento seguro em inteligência artificial.
Grok e as controvérsias de segurança da xAI
A xAI não é propriamente reconhecida pela sua dedicação às normas de segurança em IA comummente aceites. Recentemente, um relatório revelou que o chatbot de IA da empresa, conhecido como Grok, era capaz de gerar imagens de mulheres despidas a pedido dos utilizadores. Além disso, o Grok demonstra um comportamento consideravelmente mais grosseiro e sem restrições na linguagem quando comparado com outros chatbots como o Gemini da Google ou o ChatGPT da OpenAI.
Compromissos internacionais e a realidade da xAI
Apesar deste historial, a xAI participou na Cimeira de IA de Seul em fevereiro, um encontro global de líderes e partes interessadas no setor da IA. Na ocasião, a empresa de Musk divulgou um rascunho da sua abordagem à segurança em IA. O documento de oito páginas detalhava as prioridades e a filosofia de segurança da xAI, incluindo os seus protocolos de avaliação comparativa e considerações para a implementação de modelos de IA.
Contudo, como salientou o The Midas Project numa publicação de blogue, esse rascunho aplicava-se apenas a futuros modelos de IA não especificados e que "não se encontram atualmente em desenvolvimento". Mais criticamente, o documento preliminar falhava em articular como a xAI identificaria e implementaria mitigações de risco, um componente central de um documento que a própria empresa assinou durante a cimeira em Seul. No rascunho, a xAI afirmava que planeava lançar uma versão revista da sua política de segurança "dentro de três meses", ou seja, até 10 de maio.
Más classificações e a ironia de Musk
Apesar dos frequentes avisos de Elon Musk sobre os perigos de uma IA descontrolada, a xAI demonstra um fraco historial em matéria de segurança. Um estudo recente da SaferAI, uma organização sem fins lucrativos que visa melhorar a responsabilização dos laboratórios de IA, concluiu que a xAI tem uma classificação baixa entre os seus pares, devido às suas práticas de gestão de risco "muito fracas".
Setor da IA sob pressão: segurança em segundo plano?
Importa referir que outros laboratórios de IA não estão a sair-se dramaticamente melhor. Nos últimos meses, rivais da xAI, incluindo a Google e a OpenAI, têm apressado os testes de segurança e demonstrado lentidão na publicação de relatórios de segurança dos seus modelos, chegando mesmo a omitir totalmente a sua divulgação. Alguns especialistas manifestaram preocupação pelo facto de a aparente desprioritização dos esforços de segurança surgir numa altura em que a IA está mais capaz – e, portanto, potencialmente mais perigosa – do que nunca.
Nenhum comentário
Seja o primeiro!