
O ChatGPT tornou-se o novo melhor amigo de muitos trabalhadores no escritório, uma ferramenta poderosa para acelerar tarefas e desbloquear a criatividade. No entanto, esta nova amizade pode estar a custar caro às empresas. Um novo estudo revela que um número alarmante de funcionários está a copiar e colar dados sensíveis, incluindo informações pessoais e de cartões de pagamento, diretamente nos chatbots de Inteligência Artificial (IA).
O relatório, intitulado Enterprise AI and SaaS Data Security Report 2025 da empresa de segurança LayerX, acusa o uso crescente e descontrolado de ferramentas de IA generativa pela fuga de dados confidenciais dos ambientes empresariais.
Um risco massivo e invisível
Os números do estudo são reveladores. Com 45% dos funcionários a utilizarem ferramentas de IA generativa, 77% admitem copiar e colar dados para as suas pesquisas no chatbot. O mais preocupante é que 22% destas operações de "copiar e colar" incluem Informação de Identificação Pessoal (PII) ou dados da Indústria de Cartões de Pagamento (PCI).
A situação agrava-se quando se percebe que a grande maioria destas interações ocorre fora do controlo das empresas. "Com 82% das colagens a virem de contas pessoais não geridas, as empresas têm pouca ou nenhuma visibilidade sobre que dados estão a ser partilhados, criando um enorme ponto cego para fugas de dados e riscos de conformidade", alerta o relatório. O problema não se limita ao texto, já que cerca de 40% dos ficheiros carregados para sites de IA também contêm dados sensíveis.
ChatGPT reina absoluto, Copilot fica para trás
Apesar da forte aposta de gigantes como a Google e a Microsoft, o estudo da LayerX confirma que o ChatGPT da OpenAI é o rei indiscutível no mundo empresarial. Mais de 9 em cada 10 funcionários que usam IA recorrem ao ChatGPT, em comparação com uma adoção muito inferior de alternativas como o Google Gemini (15%), Claude (5%) e o Copilot da Microsoft (entre 2% a 3%).
Or Eshed, CEO da LayerX, sublinha esta tendência: "Vemos que os utilizadores têm uma plataforma de IA preferida e, mesmo que a empresa tenha uma IA 'oficial' ou licenciada, os utilizadores escolhem o que querem. Neste caso, é esmagadoramente o ChatGPT".
A dominância é tal que o uso de IA nas empresas já representa 11% de toda a utilização de aplicações, aproximando-se do email (20%) e das aplicações de produtividade (14%).
Os riscos são reais e já custaram caro
A partilha de dados empresariais confidenciais com modelos de IA levanta sérias preocupações geopolíticas, regulatórias e de conformidade. Or Eshed recorda o caso da Samsung, que em 2023 proibiu temporariamente o uso do ChatGPT depois de um funcionário ter alegadamente carregado código sensível para o chatbot.
O relatório da LayerX destaca que este fenómeno de "TI-sombra" — o uso de tecnologia não aprovada pela empresa — é generalizado, acontecendo também com aplicações de chat (87%), reuniões online (60%) e até mesmo o Salesforce (77%) e o Microsoft Online (68%).
Perante este cenário, a LayerX argumenta que os responsáveis pela segurança da informação (CISOs) precisam de reforçar a aplicação de sistemas de autenticação única (Single Sign-On - SSO) em todas as aplicações críticas para o negócio, de forma a garantir a visibilidade e controlo sobre o fluxo de dados.











Nenhum comentário
Seja o primeiro!