As tecnologias de IA têm vindo a evoluir consideravelmente nos últimos tempos, e plataformas como o ChatGPT são um claro exemplo disso. Estas tornaram-se rapidamente ferramentas que muitos usam no dia a dia para as suas tarefas.
No entanto, ao fazerem-no, estão também a alimentar o motor base da IA com novas informações, que podem acabar por ser consideradas sensíveis conforme o uso das mesmas. Foi o que se verificou recentemente na Samsung, onde funcionários da empresa podem ter revelado informações internas sensíveis depois de terem usado o ChatGPT.
De acordo com o portal Economist, alguns engenheiros da Samsung terão usado o ChatGPT para responder a algumas questões sobre projetos associados com os seus trabalhos, deixando também escapar no processo informação interna sensível da empresa.
O portal indica que, em apenas 20 dias, ocorreram três casos de divulgação de informações sensíveis da Samsung para a plataforma da OpenAI. O primeiro caso ocorreu quando um funcionário terá usado o ChatGPT para avaliar o código fonte de um semicondutor.
Pouco tempo depois, outro engenheiro terá usado o ChatGPT para avaliar o código de um programa interno da empresa, que deveria ser usado para testes de desempenho – e que pode conter código sensível da mesma e dos dispositivos. Por fim, o terceiro caso aconteceu quando um funcionário da Samsung tentou usar o ChatGPT para criar atas de reuniões executivas – e onde poderia encontrar-se informação sensível.
Os conteúdos foram enviados diretamente para o ChatGPT, e diretamente para o motor de IA da OpenAI, e como tal não é diretamente possível pedir para que essa informação seja removida.
Face a estes incidentes, a fonte indica que a Samsung começou a aplicar medidas para conter o vazamento de dados internos da empresa para o ChatGPT, que passam por limitar também a forma como a plataforma é usada. Se os incidentes continuarem, existe mesmo a possibilidade de o ChatGPT ser inteiramente bloqueado nas instalações da empresa.
Nenhum comentário
Seja o primeiro!