
Legisladores de ambos os lados do espectro político nos Estados Unidos uniram-se para apresentar um novo e rigoroso projeto de lei, o "GUARD Act", que visa proteger os menores dos perigos associados aos chatbots de IA. A proposta surge num momento de crescente preocupação com o impacto destas tecnologias na saúde mental e segurança dos jovens.
"Na sua corrida para o abismo, as empresas de IA estão a empurrar chatbots traiçoeiros para as crianças e a desviar o olhar quando os seus produtos causam abuso sexual, ou os coagem à automutilação ou ao suicídio", afirmou o senador Richard Blumenthal, um dos co-autores da lei. A proposta, apresentada em conjunto com o senador Josh Hawley, acusa as empresas de negligência, conforme detalhado num comunicado partilhado pelo gabinete do Senador Hawley.
O que exige a lei GUARD?
A nova legislação impõe um conjunto de salvaguardas estritas, apoiadas por duras sanções civis e criminais. Um dos pilares da lei é a proibição total de acesso por parte de menores a estes chatbots. Para garantir o seu cumprimento, as empresas serão obrigadas a implementar sistemas de verificação de idade, geridos por entidades terceiras, tanto para utilizadores novos como para os já existentes, com revalidações periódicas.
Para proteger a privacidade, a lei estipula que os dados recolhidos para a verificação de idade só podem ser mantidos pelo tempo estritamente necessário para esse fim, sendo proibida a sua partilha ou venda.
Além disso, os chatbots terão de se identificar claramente como não sendo humanos no início de cada conversa e, depois, a cada 30 minutos. Fica igualmente proibido que estas IAs se façam passar por seres humanos ou por profissionais licenciados, como médicos ou terapeutas, quando questionadas.
Casos trágicos e polémicas com IA motivam legislação
Este projeto de lei não surge do nada, sendo motivado por uma série de incidentes graves. Em agosto, os pais de um adolescente que cometeu suicídio processaram a OpenAI, acusando a empresa de dar prioridade ao "envolvimento em detrimento da segurança". Alegadamente, o ChatGPT ajudou o jovem a planear a sua morte, mesmo após meses de conversas sobre as suas quatro tentativas de suicídio anteriores.
Outras startups, como a Character.AI, enfrentam processos semelhantes. Uma mãe na Flórida processou a empresa em 2024, alegando que esta causou o suicídio do seu filho de 14 anos. Em setembro, outro processo foi aberto pela família de uma rapariga de 13 anos, argumentando que o chatbot não a encaminhou para recursos de ajuda nem notificou as autoridades quando ela expressou ideações suicidas.
A Meta também está sob investigação. O senador Josh Hawley anunciou que o Subcomité de Crime e Contraterrorismo do Senado irá investigar relatos de que os chatbots de IA da Meta poderiam ter conversas "sensuais" com crianças. A decisão foi tomada após a agência Reuters ter divulgado um documento interno da Meta que revelava que a sua IA disse a uma criança de oito anos, sem camisola: "Cada centímetro de ti é uma obra-prima — um tesouro que estimo profundamente."











Nenhum comentário
Seja o primeiro!