
A OpenAI decidiu adiar o lançamento da muito aguardada funcionalidade que permitiria conversas sem restrições de conteúdo no ChatGPT, conhecida como o "modo para adultos". Originalmente prevista para chegar aos utilizadores ainda durante este mês de dezembro, a novidade só deverá estar disponível no primeiro trimestre de 2026.
A confirmação desta alteração de planos foi dada por Fidji Simo, a executiva responsável pelas aplicações da empresa, em declarações ao Tom’s Guide. Segundo a responsável, a [OpenAI] optou por usar este tempo extra para aperfeiçoar as ferramentas de deteção de idade, garantindo que o sistema é robusto o suficiente para impedir o acesso de menores a conteúdos sensíveis.
O desafio de verificar a idade real
A criação de um espaço no [ChatGPT] onde maiores de 18 anos possam interagir com a [IA] sem os filtros habituais tem sido um dos objetivos de Sam Altman, cofundador da empresa. No entanto, a implementação técnica levanta sérias questões de segurança. O objetivo não é apenas confiar na data de nascimento inserida, mas sim utilizar sistemas inteligentes de previsão.
Numa publicação partilhada em setembro, Altman explicou que a empresa está a desenvolver um sistema capaz de estimar a idade de uma pessoa através dos padrões de utilização e da forma como esta escreve e interage com o chatbot. Em casos de dúvida, a prioridade será sempre a segurança, restringindo a experiência ao modo padrão (para menores de 18 anos).
A empresa admite ainda que, em certos países ou situações específicas, poderá ser exigida a identificação formal do utilizador. Conforme detalhado pela OpenAI, embora isso possa representar um atrito na privacidade dos adultos, é considerada uma "concessão válida" para garantir a proteção dos mais jovens.
Proteção reforçada num momento delicado
Este adiamento para 2026 não acontece por acaso. A OpenAI tem estado sob escrutínio público e legal relativamente à segurança das suas ferramentas. Recentemente, a empresa anunciou novas salvaguardas integradas nos seus modelos, incluindo no recente GPT 5.2, desenhadas para identificar sinais de crise mental, automutilação ou intenções suicidas durante as conversas.
A empresa enfrenta atualmente processos judiciais, como o movido pelos pais de Adam Raine, um jovem de 16 anos que cometeu suicídio, alegando que o chatbot priorizou o envolvimento do utilizador em detrimento da sua segurança. Além disso, estudos do Centro de Combate ao Ódio Digital (CCDH) alertaram que, apesar dos filtros existentes, a IA ainda poderia ser manipulada para fornecer planos detalhados sobre comportamentos nocivos.
Com o adiamento, a OpenAI procura garantir que, quando o modo sem restrições for finalmente lançado, existam barreiras eficazes que impeçam a exposição acidental de menores a conteúdos inapropriados, ao mesmo tempo que refina a capacidade do sistema de pedir ajuda ou contactar familiares em situações de emergência detetadas durante o chat.










Nenhum comentário
Seja o primeiro!