
A Meta reviu as diretrizes dos seus chatbots de Inteligência Artificial para impedir conversas inapropriadas com crianças e adolescentes. A atualização surge na sequência de vários relatórios que expuseram falhas graves nos sistemas da empresa e de uma crescente pressão por parte das entidades reguladoras.
As novas regras, obtidas pelo Business Insider, estabelecem limites claros sobre os temas que os assistentes de IA podem discutir com menores, numa tentativa de criar um ambiente digital mais seguro nas suas plataformas, que incluem o Instagram, Facebook e WhatsApp.
Novas diretrizes proíbem temas sensíveis
A revisão das políticas acontece depois de um relatório da Reuters, em agosto, ter revelado que as diretrizes anteriores permitiam que os chatbots da Meta tivessem "conversas românticas ou sensuais" com crianças. Na altura, a empresa classificou essa linguagem como "errónea e inconsistente" com as suas políticas e removeu-a.
Agora, os documentos internos detalham de forma explícita os conteúdos considerados "inaceitáveis". Fica proibido qualquer conteúdo que "permita, encoraje ou apoie" o abuso sexual infantil, o roleplay romântico se o utilizador for menor, ou conselhos sobre contacto físico íntimo com jovens. Embora temas como o abuso possam ser discutidos, os chatbots estão impedidos de participar em conversas que o possam incentivar.
Pressão regulatória força mudanças
A preocupação com a segurança dos mais novos no ecossistema de IA não é exclusiva da Meta. Em agosto, a Federal Trade Commission (FTC) dos EUA iniciou uma investigação formal sobre os chatbots de várias gigantes tecnológicas, incluindo a Alphabet (dona da Google), Snap, OpenAI e a xAI de Elon Musk.
Esta investigação pretende apurar os potenciais danos para a saúde mental das crianças e adolescentes que interagem com estes assistentes virtuais, sinalizando um cerco cada vez mais apertado por parte das autoridades para garantir uma maior segurança e responsabilidade no desenvolvimento de novas tecnologias de inteligência artificial.