Existem cada vez mais empresas que começam a adotar o ChatGPT e outras ferramentas de Inteligência Artificial para melhorarem as suas tarefas. No entanto, isto abre também o potencial de dados sensíveis das empresas acabarem por ser usados para o treino destes modelos de IA.
A Samsung foi uma das primeiras empresas que aplicou limitações na forma como os funcionários podem usar chatbots de IA, depois de, alegadamente, dados sensíveis da empresa terem sido enviados para alguns modelos de treino de IA.
Agora, parece que a Apple também pretende realizar algo parecido. De acordo com o Wall Street Journal, a Apple terá recentemente informado os seus funcionários para não usarem ferramentas de IA, como chatbots, para enviarem questões sensíveis da empresa.
A empresa terá afirmado que, com o uso destas ferramentas, existe o potencial para dados sensíveis serem partilhados de forma indevida. Isto aplica-se a plataformas como o ChatGPT, mas terá também sido referido o GitHub Copilot – uma funcionalidade que permite ajudar os programadores a criarem código nas suas aplicações.
Uma parte para a indicação da plataforma do GitHub pode dever-se ao facto desta ser da Microsoft, uma das maiores rivais da Apple. A empresa encontra-se preocupada com a possibilidade de os programadores usarem ferramentas automáticas que podem enviar dados sensíveis da Apple, e que podem ser analisados pela empresa rival no mercado.
No entanto, parece que a Apple encontra-se também a trabalhar na sua própria ferramenta de IA, que poderá limitar a forma como este género de conteúdos são partilhados com terceiros. A mesma fonte indica que a Apple estaria a criar uma plataforma de IA, que poderia ser usada internamente para os funcionários partilharem conteúdos importantes da empresa – e que limitaria consideravelmente a possibilidade de dados sensíveis serem analisados por terceiros.
Para já ainda se desconhecem detalhes sobre como este sistema iria funcionar ou se já se encontra em funcionamento internamente.
Nenhum comentário
Seja o primeiro!