As tecnologias de Inteligência Artificial surgem em força no mercado, ao longo dos últimos meses. No entanto, apesar das ideias benignas deste género de tecnologias, em simultâneo, surgem também quem pretenda usar as mesmas para atividades maliciosas.
E o mais recente exemplo pode verificar-se sobre a empresa ElevenLabs, que lançou uma plataforma de criação de vozes via IA, capaz de converter texto em vozes e de clonar as mesmas para tons similares aos de outras pessoas.
A tecnologia tem sido bem recebida no mercado, tão bem que a empresa confirma agora que existem alguns utilizadores com intenções maliciosas a usarem a mesma para criar conteúdos deepfake.
Segundo a empresa, esta tem verificado um aumento considerável de casos onde a sua tecnologia foi usada para clonar a voz de personalidades reconhecidas, e usando as mesmas para fins maliciosos. Face a esta situação, a empresa encontra-se a preparar para implementar um conjunto de novas medidas para limitar o uso da tecnologia para fins contrários ao que a mesma foi desenhada.
Os problemas para a empresa começaram a ser identificados quando vários clips de voz a imitar celebridades começaram a surgir em plataformas como o 4chan, e onde os autores estariam a referir que os mesmos foram criados sobre a plataforma da ElevenLabs.
A ElevenLabs encontra-se a analisar a melhor forma de prevenir abusos com a sua ferramenta, pedindo também a colaboração da comunidade para tal. Não será de estranhar que este género de ferramentas sejam usadas para atividades contrárias ao que foram inicialmente criadas.
Afinal de contas, praticamente todas as tecnologias de IA foram usadas, de alguma forma, para atividades maliciosas. Uma ferramenta que converte texto em voz, e permite ajustar a mesma para vozes reais, possui um real impacto para ser usada no mais variado género de criações de deepfakes.
Nenhum comentário
Seja o primeiro!