1. TugaTech » Software » Noticias de Software
  Login     Registar    |                      
Siga-nos

Segurança digital

Uma investigação da empresa de cibersegurança UpGuard revelou uma falha de segurança alarmante em chatbots de Inteligência Artificial (IA) focados em role-playing, que estão a difundir conversas dos seus utilizadores na internet em tempo quase real. O conteúdo exposto é de natureza extremamente sensível, incluindo fantasias sexuais explícitas e, de forma mais preocupante, cenários de abuso sexual infantil criados pelos próprios utilizadores.

A equipa da UpGuard conseguiu recolher um volume de conversas correspondente a 24 horas de utilização. Embora as fugas de informação não contivessem dados que identificassem diretamente os utilizadores, a natureza do conteúdo é de tal forma privada que a sua associação a indivíduos poderia ter consequências devastadoras.

A causa do problema: uma framework popular mal configurada

A origem desta fuga de dados massiva reside em implementações mal configuradas da framework de código aberto llama.cpp. Esta é uma ferramenta bastante popular que permite executar Modelos de Linguagem de Grande Escala (LLMs), a tecnologia por detrás dos chatbots, tanto localmente como na nuvem.

É crucial sublinhar que o problema não está na framework em si, mas sim na falta de protocolos de segurança adequados durante a sua implementação por parte dos serviços que alojam estes chatbots. A UpGuard não nomeou os serviços específicos afetados, mas confirmou que, embora muitos sistemas estivessem expostos, apenas uma parte deles estava ativamente a divulgar os dados na web.

O "Everest das violações de privacidade"

O conteúdo exposto, pela sua natureza íntima, representa um perigo imenso. Se, de alguma forma, fosse ligado a indivíduos, poderia ser facilmente utilizado para fins de chantagem ou sextortion. Adam Dodge, especialista da organização anti-abuso Endtab, descreveu o potencial desta fuga de dados como um "Everest das violações de privacidade".

Este incidente demonstra não só que os utilizadores estão a desenvolver laços emocionais com assistentes de IA, levando-os a partilhar informações profundamente pessoais, mas também que a IA generativa está a ser utilizada para criar e interagir com conteúdo abusivo sob uma falsa sensação de anonimato. Dodge alerta ainda que este tipo de tecnologia reduz drasticamente a barreira para o envolvimento com fantasias perigosas e prejudiciais.

A UpGuard conclui que este caso revela uma necessidade crítica de implementar protocolos de segurança adequados na implementação de sistemas de IA. Adicionalmente, levanta questões urgentes sobre o impacto social dos serviços de pornografia e companheirismo baseados em IA não regulamentados, um debate que certamente ganhará força após esta revelação.




Aplicações do TugaTechAplicações TugaTechDiscord do TugaTechDiscord do TugaTechRSS TugaTechRSS do TugaTechSpeedtest TugaTechSpeedtest TugatechHost TugaTechHost TugaTech