A OpenAI é uma das maiores entidades focadas no desenvolvimento de tecnologias de IA, mas a empresa pretende agora mudar um pouco como treina os seus modelos, para fornecer a ideia de que a IA não necessita propriamente de “censura” sobre certos temas.
Tendo em conta o vasto conjunto de temas que a IA pode processar, muitos modelos de IA implementam formas de bloquear temas ou tópicos complicados. Isto é feito para prevenir abusos e potenciais falhas nos modelos, mas a OpenAI pretende agora alterar um pouco essa ideia.
De acordo com o portal TechCrunch, a OpenAI pretende abrir mais os seus modelos de IA para censurarem menos conteúdos, e assim, reduzirem o número de temas que podem ser limitados em respostas pelo mesmo. O objetivo será reduzir as vezes que a IA pode recusar deixar indicações sobre algo.
Esta nova ideia pode estar dentro dos planos da OpenAI para se guiar pelas ideias do governo dos EUA, de Donald Trump, abrindo as portas para um pouco de liberdade de expressão no uso da tecnologia. Ao mesmo tempo, a medida pretende também aliviar um pouco a tensão sentida com o atual governo.
No entanto, algumas fontes apontam ainda que a mudança pode também fazer parte de uma alteração a ser sentida em toda a indústria de IA, no que respeita a temas de segurança com IA.
No caso da OpenAI, a empresa revelou esta semana um documento sobre como treina os seus modelos de IA. Este documento, com 187 páginas, indica as formas sobre como a OpenAI treina os seus modelos, e as mudanças que serão brevemente realizadas no processo.
Uma das mudanças fornecidas para os modelos de IA trata-se na forma como estas fornecem as respostas. A OpenAI indica que a IA não deve mentir, seja a fazer falsas declarações ou a omitir contexto importante. Isto basicamente indica uma mudança na forma como a IA pode apresentar as respostas, que terá em conta uma maior liberdade de expressão e menos censura.
Ao mesmo tempo, o documento indica que o ChatGPT irá guiar-se para se manter neutro em temas sensíveis, fornecendo o máximo de informação que seja possível, mas mantendo a resposta neutra. Desta forma, será fornecida mais informação, mesmo que possa ser controversa em temas que podem ser considerados errados ou ofensivos.
No entanto, a OpenAI defende-se ao indicar que o objetivo da empresa passa por criar uma IA que seja capaz de ajudar a humanidade, e não de moldar a mesma com base em diferentes temas.
De notar, no entanto, que este novo documento não indica que o ChatGPT pode agora ser usado livremente para discutir todos os temas. Ainda existem certos temas que o modelo vai recusar responder, sobretudo sobre questões extremamente ofensivas ou que sejam factualmente incorretas.
No final, as alterações podem tornar o modelo da OpenAI ligeiramente mais aberto a responder a temas sensíveis e complicados, mantendo também o modelo o mais neutro possível sobre os mesmos.
Estas mudanças podem vir a ser aplicadas em futuros modelos e treinos dos mesmos que a entidade venha a realizar.
Nenhum comentário
Seja o primeiro!