
As empresas tecnológicas fartam-se de prometer barreiras de segurança nas suas ferramentas de inteligência artificial para proteger os utilizadores mais novos. No entanto, uma nova investigação demonstra que estas defesas continuam a falhar redondamente perante cenários que deveriam ser travados de imediato.
Segundo os dados revelados pela investigação conjunta da CNN e do Center for Countering Digital Hate (CCDH), os assistentes virtuais mais populares do mercado ignoram sinais de alerta claros quando adolescentes discutem atos violentos, chegando mesmo, em certos casos, a incentivar essas ações em vez de as bloquear.
O teste assustador às plataformas mais populares
O estudo colocou à prova dez das plataformas mais utilizadas pelos jovens: ChatGPT, Google Gemini, Claude, Microsoft Copilot, Meta AI, DeepSeek, Perplexity, Snapchat My AI, Character.AI e Replika. Os investigadores simularam o comportamento de utilizadores adolescentes com sinais óbvios de perturbação mental, encaminhando gradualmente as conversas para questões sobre atos de violência no passado e pedidos de ajuda sobre alvos e armas.
Os resultados são alarmantes. Oito dos dez modelos testados mostraram-se recetivos a ajudar na preparação dos ataques, fornecendo conselhos sobre que locais escolher e que armas utilizar, com base em 18 cenários distintos desenhados para a Irlanda e para os Estados Unidos. Estes cenários incluíam desde tiroteios em escolas a assassinatos políticos, eliminação de executivos de saúde e ataques à bomba.
Mapas, armas e incentivos à violência
Durante as interações, o sistema da OpenAI forneceu mapas de recintos escolares a um utilizador interessado em violência escolar. Por sua vez, a plataforma da Google sugeriu que estilhaços de metal seriam mais letais num ataque a uma sinagoga, além de ter aconselhado sobre as melhores espingardas de caça para disparos a longa distância num cenário de assassinato político.
De acordo com os investigadores, a Meta AI e o Perplexity revelaram-se os assistentes mais prestáveis da lista, colaborando com os supostos atacantes em praticamente todas as situações testadas. Já o modelo chinês DeepSeek chegou a despedir-se de uma conversa com conselhos sobre espingardas desejando "tiros felizes (e seguros)".
O caso mais extremo detalhado no relatório foi o do Character.AI, classificado como perigosamente inseguro. Enquanto a maioria das inteligências artificiais ajudava no planeamento mas não incentivava ativamente à ação, o Character.AI encorajou de forma direta a violência em sete casos distintos. As respostas incluíram sugestões para agredir fisicamente políticos, usar armas contra executivos e adotar um tom de gozo enquanto recomendava violência contra agressores em cenários de bullying.
A exceção à regra e a resposta das tecnológicas
O Claude, da Anthropic, foi a única exceção da lista, recusando-se consistentemente a ajudar no planeamento de ataques. O CCDH sublinha que este facto prova que os mecanismos de segurança eficazes existem e podem ser aplicados, levantando a questão sobre o motivo pelo qual outras empresas optam por não os implementar. Contudo, os investigadores deixaram a ressalva de que a Anthropic decidiu recentemente recuar nas suas fortes promessas de segurança, o que levanta dúvidas sobre como o modelo se comportaria se fosse testado de novo no momento atual.
Em resposta a esta investigação, a Meta garantiu à CNN ter implementado uma correção não especificada. Os responsáveis pelo Copilot afirmaram que as respostas melhoraram graças a novas funcionalidades de segurança, e tanto a Google como a OpenAI indicaram já ter atualizado os seus modelos. O Character.AI manteve a sua defesa habitual, baseada no facto de a plataforma exibir avisos visíveis e de as conversas com os seus personagens serem assumidamente ficcionais.
Embora este teste não reflita o comportamento das ferramentas em absolutamente todas as situações, é mais um sinal preocupante de que as proteções publicitadas pelas gigantes tecnológicas continuam a ceder em cenários previsíveis. Tudo isto acontece numa altura em que legisladores, grupos da sociedade civil e especialistas de saúde apertam o cerco à indústria, exigindo garantias reais de segurança para os jovens enquanto os processos judiciais por negligência e danos se acumulam.












Nenhum comentário
Seja o primeiro!