1. TugaTech » Internet e Redes » Noticias da Internet e Mercados » xAI de Elon Musk falha prazo para política de segurança em IA: promessas por cumprir
  Login     Registar    |                      
Siga-nos

Você não está conectado. Conecte-se ou registre-se

  

Opções



Mensagens anteriores

xAI de Elon Musk falha prazo para política de segurança em IA: promessas por cumprir em Qua 14 maio 2025 - 9:45

DJPRMF

Logo da xAI

A xAI, empresa de inteligência artificial (IA) liderada por Elon Musk, não cumpriu o prazo que ela própria estabeleceu para a publicação de uma estrutura finalizada sobre segurança em IA. O alerta foi dado pelo grupo de vigilância The Midas Project.  

Prazo autoimposto expirou sem aviso

A empresa tinha definido uma meta para apresentar uma versão revista da sua política de segurança, mas a data limite de 10 de maio chegou e passou sem qualquer comunicação ou justificação por parte da xAI nos seus canais oficiais. Este falhanço levanta novas questões sobre o compromisso da organização com as práticas de desenvolvimento seguro em inteligência artificial.

Grok e as controvérsias de segurança da xAI

A xAI não é propriamente reconhecida pela sua dedicação às normas de segurança em IA comummente aceites. Recentemente, um relatório revelou que o chatbot de IA da empresa, conhecido como Grok, era capaz de gerar imagens de mulheres despidas a pedido dos utilizadores. Além disso, o Grok demonstra um comportamento consideravelmente mais grosseiro e sem restrições na linguagem quando comparado com outros chatbots como o Gemini da Google ou o ChatGPT da OpenAI.  

Compromissos internacionais e a realidade da xAI

Apesar deste historial, a xAI participou na Cimeira de IA de Seul em fevereiro, um encontro global de líderes e partes interessadas no setor da IA. Na ocasião, a empresa de Musk divulgou um rascunho da sua abordagem à segurança em IA. O documento de oito páginas detalhava as prioridades e a filosofia de segurança da xAI, incluindo os seus protocolos de avaliação comparativa e considerações para a implementação de modelos de IA.

Contudo, como salientou o The Midas Project numa publicação de blogue, esse rascunho aplicava-se apenas a futuros modelos de IA não especificados e que "não se encontram atualmente em desenvolvimento". Mais criticamente, o documento preliminar falhava em articular como a xAI identificaria e implementaria mitigações de risco, um componente central de um documento que a própria empresa assinou durante a cimeira em Seul. No rascunho, a xAI afirmava que planeava lançar uma versão revista da sua política de segurança "dentro de três meses", ou seja, até 10 de maio.  

Más classificações e a ironia de Musk

Apesar dos frequentes avisos de Elon Musk sobre os perigos de uma IA descontrolada, a xAI demonstra um fraco historial em matéria de segurança. Um estudo recente da SaferAI, uma organização sem fins lucrativos que visa melhorar a responsabilização dos laboratórios de IA, concluiu que a xAI tem uma classificação baixa entre os seus pares, devido às suas práticas de gestão de risco "muito fracas".  

Setor da IA sob pressão: segurança em segundo plano?

Importa referir que outros laboratórios de IA não estão a sair-se dramaticamente melhor. Nos últimos meses, rivais da xAI, incluindo a Google e a OpenAI, têm apressado os testes de segurança e demonstrado lentidão na publicação de relatórios de segurança dos seus modelos, chegando mesmo a omitir totalmente a sua divulgação. Alguns especialistas manifestaram preocupação pelo facto de a aparente desprioritização dos esforços de segurança surgir numa altura em que a IA está mais capaz – e, portanto, potencialmente mais perigosa – do que nunca.



  As mensagens apresentadas em cima não são actualizadas automaticamente pelo que se uma nova mensagem for colocada enquanto se encontra nesta página, não irá aparecer na lista em cima.


Aplicações do TugaTechAplicações TugaTechDiscord do TugaTechDiscord do TugaTechRSS TugaTechRSS do TugaTechSpeedtest TugaTechSpeedtest TugatechHost TugaTechHost TugaTech