Existem cada vez mais empresas que se encontram a adotar Inteligência Artificial para as suas tarefas do dia a dia, e certamente que isso possui as suas vantagens. No entanto, ferramentas como o Google Bard e o ChatGPT também recolhem tudo o que é dito, para melhorar os seus modelos.
Isto pode ser um problema, quando são os funcionários das empresas a usarem as ferramentas para colocarem questões ou pedidos que envolvam temas sensíveis ou secretos das entidades. Por isso mesmo, a Samsung é uma das primeiras empresas que se encontra a aplicar medidas para evitar tais situações.
De acordo com o portal Bloomberg, a Samsung enviou durante a semana passada uma mensagem interna para os seus funcionários, de forma que os mesmos não usem plataformas como o ChatGPT em dispositivos do trabalho ou durante as horas de expediente.
Um dos motivos para esta decisão terá sido o facto da Samsung ter verificado que alguns funcionários terão enviado, para o ChatGPT, informação potencialmente sensível da empresa, como esquemas e dados internos.
Os funcionários podem continuar a usar chatbots de IA fora do trabalho, e nos seus dispositivos pessoais, no entanto a Samsung pede para que os mesmos não enviem dados sensíveis da empresa para essas plataformas.
Algumas fontes apontam que a Samsung encontra-se a estudar a possibilidade de criar o seu próprio chatbot, baseado em IA, que poderia ser usado para questões internas da empresa, mas teria foco em garantir a privacidade das informações partilhadas no mesmo. Este chatbot poderia ser usado pelos funcionários para as mais variadas questões, mas com mais privacidade para os conteúdos partilhados do que o existente em plataformas como o ChatGPT e Bing Chat.
Nenhum comentário
Seja o primeiro!