Algumas das maiores empresas de tecnologia do mercado encontram-se a trabalhar em conjunto para o desenvolvimento de tecnologias de IA seguras e responsáveis. OpenAI, Microsoft, Google e outras são alguns dos nomes que marcaram presença num evento focado para garantir a segurança das novas tecnologias de IA.
No total, 16 empresas estiveram presentes no evento, que foi focado em garantir que a IA pode ser desenvolvida de forma segura e responsável, com a criação de padrões fundamentais para tal. Todas as empresas deixaram claro que existem benefícios de se usar tecnologias de IA, mas ao mesmo tempo, também existem alguns problemas e riscos que devem ser tidos em conta.
Por entre algumas das medidas idealizadas encontram-se novas frameworks de segurança para sistemas de IA, bem como a criação de modelos que podem ter riscos que possam passar fora do controlo das empresas. O objetivo final será criar sistemas que sejam éticos, seguros e possam evitar danos conforme a tecnologia evolua.
Serão ainda criados mecanismos para identificar casos de bias sobre os diferentes modelos de IA, bem como os engenheiros e especialistas que trabalham na área serão dotados de ferramentas para ajudar a identificar e reportar tais situações.
Tencent, Meituan, Xiaomi e Samsung são também algumas das empresas que se encontraram presentes no evento, e que irão também juntar este movimento.
Para já, este evento foca-se numa promessa mais “vulgar”, com acordos que são voluntários de cada empresa participar. No entanto, a ideia será chamar à atenção das autoridades e governos em diferentes países, de forma a desenvolverem leis e regras mais claras sobre as tecnologias de IA atualmente existentes, bem como planos para as futuras.
Este género de iniciativas será certamente importante para as empresas no ramo da IA. Ainda de forma recente a OpenAI esteve no centro de críticas, depois de ter desmantelado a equipa que seria responsável por estipular regras éticas e de segurança para os modelos de IA da empresa.
Nenhum comentário
Seja o primeiro!