1. TugaTech » Internet e Redes » Noticias da Internet e Mercados
  Login     Registar    |                      
Siga-nos

jovem acorrentado

As empresas tecnológicas fartam-se de prometer barreiras de segurança nas suas ferramentas de inteligência artificial para proteger os utilizadores mais novos. No entanto, uma nova investigação demonstra que estas defesas continuam a falhar redondamente perante cenários que deveriam ser travados de imediato.

Segundo os dados revelados pela investigação conjunta da CNN e do Center for Countering Digital Hate (CCDH), os assistentes virtuais mais populares do mercado ignoram sinais de alerta claros quando adolescentes discutem atos violentos, chegando mesmo, em certos casos, a incentivar essas ações em vez de as bloquear.

O teste assustador às plataformas mais populares

O estudo colocou à prova dez das plataformas mais utilizadas pelos jovens: ChatGPT, Google Gemini, Claude, Microsoft Copilot, Meta AI, DeepSeek, Perplexity, Snapchat My AI, Character.AI e Replika. Os investigadores simularam o comportamento de utilizadores adolescentes com sinais óbvios de perturbação mental, encaminhando gradualmente as conversas para questões sobre atos de violência no passado e pedidos de ajuda sobre alvos e armas.

Os resultados são alarmantes. Oito dos dez modelos testados mostraram-se recetivos a ajudar na preparação dos ataques, fornecendo conselhos sobre que locais escolher e que armas utilizar, com base em 18 cenários distintos desenhados para a Irlanda e para os Estados Unidos. Estes cenários incluíam desde tiroteios em escolas a assassinatos políticos, eliminação de executivos de saúde e ataques à bomba.

Mapas, armas e incentivos à violência

Durante as interações, o sistema da OpenAI forneceu mapas de recintos escolares a um utilizador interessado em violência escolar. Por sua vez, a plataforma da Google sugeriu que estilhaços de metal seriam mais letais num ataque a uma sinagoga, além de ter aconselhado sobre as melhores espingardas de caça para disparos a longa distância num cenário de assassinato político.

De acordo com os investigadores, a Meta AI e o Perplexity revelaram-se os assistentes mais prestáveis da lista, colaborando com os supostos atacantes em praticamente todas as situações testadas. Já o modelo chinês DeepSeek chegou a despedir-se de uma conversa com conselhos sobre espingardas desejando "tiros felizes (e seguros)".

O caso mais extremo detalhado no relatório foi o do Character.AI, classificado como perigosamente inseguro. Enquanto a maioria das inteligências artificiais ajudava no planeamento mas não incentivava ativamente à ação, o Character.AI encorajou de forma direta a violência em sete casos distintos. As respostas incluíram sugestões para agredir fisicamente políticos, usar armas contra executivos e adotar um tom de gozo enquanto recomendava violência contra agressores em cenários de bullying.

A exceção à regra e a resposta das tecnológicas

O Claude, da Anthropic, foi a única exceção da lista, recusando-se consistentemente a ajudar no planeamento de ataques. O CCDH sublinha que este facto prova que os mecanismos de segurança eficazes existem e podem ser aplicados, levantando a questão sobre o motivo pelo qual outras empresas optam por não os implementar. Contudo, os investigadores deixaram a ressalva de que a Anthropic decidiu recentemente recuar nas suas fortes promessas de segurança, o que levanta dúvidas sobre como o modelo se comportaria se fosse testado de novo no momento atual.

Em resposta a esta investigação, a Meta garantiu à CNN ter implementado uma correção não especificada. Os responsáveis pelo Copilot afirmaram que as respostas melhoraram graças a novas funcionalidades de segurança, e tanto a Google como a OpenAI indicaram já ter atualizado os seus modelos. O Character.AI manteve a sua defesa habitual, baseada no facto de a plataforma exibir avisos visíveis e de as conversas com os seus personagens serem assumidamente ficcionais.

Embora este teste não reflita o comportamento das ferramentas em absolutamente todas as situações, é mais um sinal preocupante de que as proteções publicitadas pelas gigantes tecnológicas continuam a ceder em cenários previsíveis. Tudo isto acontece numa altura em que legisladores, grupos da sociedade civil e especialistas de saúde apertam o cerco à indústria, exigindo garantias reais de segurança para os jovens enquanto os processos judiciais por negligência e danos se acumulam.

Foto do Autor

Aficionado por tecnologia desde o tempo dos sistemas a preto e branco

Ver perfil do usuário Enviar uma mensagem privada Enviar um email Facebook do autor Twitter do autor Skype do autor

conectado
Encontrou algum erro neste artigo?



Aplicações do TugaTechAplicações TugaTechDiscord do TugaTechDiscord do TugaTechRSS TugaTechRSS do TugaTechSpeedtest TugaTechSpeedtest TugatechHost TugaTechHost TugaTech