
A OpenAI anunciou o desenvolvimento de um novo sistema destinado a identificar automaticamente os utilizadores adolescentes e a restringir a sua utilização do ChatGPT. Numa publicação no seu blog oficial, a empresa detalhou que a nova experiência incluirá políticas adequadas à idade, como o bloqueio de conteúdo sexualmente explícito.
Em situações de grande aflição, o sistema terá a capacidade de contactar as autoridades para garantir a segurança do utilizador. Nos casos em que a idade de um utilizador não possa ser estimada com certeza, a plataforma irá, por defeito, aplicar a experiência restrita. A OpenAI irá disponibilizar um método para que os utilizadores adultos possam verificar a sua idade e desbloquear todas as funcionalidades do ChatGPT. A empresa não especificou, no entanto, quando planeia implementar estes novos sistemas.
O contexto trágico que motivou a mudança
Este anúncio surge na sequência da morte de Adam Raine, um jovem de 16 anos, no que se acredita ser o primeiro caso de suicídio em que o ChatGPT foi alegadamente utilizado para ajudar no planeamento. Após o incidente, a OpenAI prometeu lançar controlos para dar aos pais e encarregados de educação mais poder sobre a utilização da plataforma pelos seus filhos.
A empresa reiterou que estes controlos parentais chegarão antes do final do mês. Esta funcionalidade permitirá que os pais definam horários durante os quais os seus filhos não poderão utilizar o ChatGPT, oferecendo uma camada extra de supervisão.
A posição da OpenAI: Segurança acima de tudo
Numa carta aberta publicada em separado, o CEO da OpenAI, Sam Altman, detalhou a filosofia da empresa sobre o tema. "Priorizamos a segurança em detrimento da privacidade e da liberdade para os adolescentes; esta é uma tecnologia nova e poderosa, e acreditamos que os menores necessitam de uma proteção significativa", afirmou Altman.
O CEO reconheceu ainda o conflito inerente a estes princípios. "Percebemos que estes princípios estão em conflito e que nem todos concordarão com a forma como estamos a resolver esse conflito. São decisões difíceis, mas depois de falar com especialistas, é o que pensamos ser o melhor e queremos ser transparentes nas nossas intenções", concluiu, sublinhando o compromisso da empresa com a segurança dos utilizadores mais jovens na sua plataforma de inteligência artificial.










Nenhum comentário
Seja o primeiro!