A Google tem vindo a trabalhar para desenvolver as suas próprias tecnologias de Inteligência Artificial, sendo que o Bard é uma das primeiras criações nesse sentido. No entanto, a empresa encontra-se a chegar tarde ao jogo, tendo em conta que nomes como a OpenAI e a Microsoft já possuem um grande avanço na área com as suas ferramentas dedicadas.
Isto coloca uma certa pressão para a Google, que deve lançar as suas tecnologias o mais rapidamente possível, nem que para isso tenha de se comprometer alguns pontos. De acordo com o portal Bloomberg, citando fontes próximas da empresa, a Google encontra-se a apressar o lançamento de tecnologias de IA, sem ter propriamente cuidado em aplicar medidas de limitação ética nas mesmas.
Com o objetivo de fornecer as novas tecnologias o mais rapidamente possível, a Google encontra-se a apressar alguns dos projetos, e a criar atalhos para tal. Um dos indicados passa por dispensar uma grande parte da análise ética feita aos produtos finais.
Alguns dos funcionários que trabalham nas divisões de ética da IA da Google apontam que a empresa encontra-se a criar pressão para que não sejam criados entraves no lançamento de novas tecnologias, reduzindo a fasquia para o que pode ser permitido ou não.
Antes de o Bard chegar ao público em geral, os funcionários que testaram a IA internamente indicam que esta apresentava constantemente informações falsas ou que poderiam levar a situações complicadas. Num dos exemplos, os funcionários indicavam que o Bard estaria a dar instruções completamente erradas para a tarefa de aterrar um avião.
No final, a Google acabou por lançar o Bard publicamente, indicando que o mesmo seria uma experiência da empresa, e que erros poderiam acontecer, numa tentativa lançar o projeto, mas ao mesmo tempo indicando que possíveis falhas do mesmo seria de se tratar de um projeto ainda em construção.
Nenhum comentário
Seja o primeiro!