A OpenAI e a Anthropic confirmaram que vão partilhar os seus modelos de IA com as autoridades dos EUA, mais concretamente o US AI Safety Institute. Esta agência é responsável por analisar e dar um feedback sobre a segurança dos modelos de IA mais usados no mercado, e foi criada como parte de uma ordem executiva do governo de Biden em 2023.
No inicio deste mês, Sam Altman, CEO da OpenAI, tinha dado indícios de que poderia começar a partilhar os modelos de IA da OpenAI com a entidade. Esta confirmação chega agora, com a indicação que a OpenAI vai trabalhar diretamente com a US AI Safety Institute para a análise dos modelos usados no ChatGPT e nas suas restantes plataformas.
Ao mesmo tempo, também a Anthropic confirmou que vai seguir a mesma ideia, dando assim acesso aos modelos para a entidade.
A US AI Safety Institute não revela, por agora, quais as entidades que estão em vias de poderem ter os seus modelos analisados, mas a Google parece ser um dos próximos focos para tal. Embora nada tenha sido confirmado, algumas fontes apontam que a empresa encontra-se em conversações com a instituição, para uma possível partilha das informações necessárias.
Face a este apoio, ambas as empresas vão passar a fornecer os seus modelos à entidade para análise ainda antes de chegarem ao público em geral. Desta forma, os mesmos podem ser analisados a nível da segurança antes de começarem a ser ativamente usados pelos sistemas de IA generativa.
Nenhum comentário
Seja o primeiro!