A OpenAI encontra-se a fazer novos esforços para que a IA generativa da empresa seja mais segura de usar. Durante o dia de hoje, a empresa confirmou ter criado o novo comité de Segurança e proteção, que vai ser responsável por monitorizar as atividades da IA e criar medidas para a usar e desenvolver de forma segura.
Sam Altman, numa mensagem partilhada no blog da entidade, confirmou que vai fazer parte desta comissão, juntamente com vários outros especialistas. A ideia será ter uma divisão dedicada para tratar de questões associadas com a segurança no uso da IA, e que também possa avaliar os riscos da mesma para os utilizadores em geral.
Este comité será responsável por criar regras de forma a usar a IA num formato seguro e responsável. Embora este integre vários membros atuais da OpenAI, irá também contar com a participação de vários especialistas externos, que poderão ajudar em certas tarefas.
Esta medida surge depois de terem surgido informações que a OpenAI teria demitido toda a sua equipa responsável por gerir a segurança dos modelos de IA da empresa, em meados de Maio. O objetivo desta divisão seria manter a IA sobre controlo, e evitar que a mesma possa ser mais inteligente que o ser humano.
Juntamente com a confirmação deste novo comité, curiosamente a OpenAI também deixou a indicação de que se encontra a treinar o novo modelo de IA. Na mensagem, esta indica que se encontra na fase de treino do seu novo modelo de IA, que será usado em futuras tecnologias da mesma e poderá ter capacidades elevadas de processamento – tornando-se mais próximo do objetivo de AGI.
Infelizmente não foram revelados muitos mais detalhes sobre este novo modelo de IA, portanto ainda se desconhece como será aplicado e quais as novidades.
Nenhum comentário
Seja o primeiro!