1. TugaTech » Internet e Redes » Noticias da Internet e Mercados
  Login     Registar    |                      
Siga-nos

Edifício da Microsoft

Acha que consegue distinguir facilmente uma fotografia real de uma imagem criada por inteligência artificial? Um novo e abrangente estudo da Microsoft sugere que a nossa confiança pode estar mal colocada. A investigação concluiu que os humanos acertam apenas em 62% das vezes, um resultado modestamente acima do puro acaso.

Somos piores do que pensamos a detetar o que é falso

Numa experiência que envolveu mais de 12.500 participantes a nível global e a avaliação de 287.000 imagens, a equipa da Microsoft AI for Good descobriu uma realidade preocupante. Os participantes jogaram um jogo de "Real ou Falso", onde lhes foram mostradas imagens que poderiam encontrar no seu dia a dia online, evitando a escolha de exemplos demasiado óbvios ou enganadores.

O estudo revelou que, embora tenhamos mais facilidade em identificar retratos humanos falsos, a nossa capacidade cai a pique quando se trata de paisagens naturais ou urbanas. Nestas categorias, a taxa de sucesso desceu para valores entre 59% e 61%, sublinhando a dificuldade em detetar criações de IA que não apresentem falhas evidentes ou um estilo artístico muito marcado.

As técnicas que baralham o nosso cérebro

Curiosamente, os investigadores notaram que a nossa maior facilidade em detetar rostos falsos se deve provavelmente à nossa capacidade inata para identificar caras e detetar anomalias em retratos gerados por IA.

No entanto, o estudo trouxe à luz um dado interessante: as redes generativas adversariais (GANs) mais antigas e as técnicas de inpainting mostraram ser particularmente eficazes a enganar os utilizadores. Isto acontece porque produzem imagens que se assemelham a fotografias amadoras, em vez da estética de estúdio polida de modelos populares como o Midjourney e o DALL-E 3.

A técnica de inpainting é especialmente alarmante. Consiste em substituir um pequeno elemento de uma fotografia real por algo gerado por IA, tornando a falsificação extremamente difícil de identificar e representando um risco significativo para campanhas de desinformação.

Microsoft apela a mais transparência e ferramentas de deteção

Face a estes resultados, a Microsoft apela à implementação de ferramentas de transparência, como marcas d'água, e ao desenvolvimento de detetores de IA mais robustos para mitigar os riscos de desinformação. A gigante de Redmond já tinha lançado anteriormente uma campanha para educar o público sobre estes perigos.

Para reforçar a ideia, os próprios investigadores usaram uma ferramenta de deteção de IA que alcançou uma taxa de sucesso superior a 95%, tanto em imagens reais como nas geradas artificialmente. Isto sugere que a assistência de máquinas é consideravelmente mais fiável que o julgamento humano, embora ainda não seja perfeita.

É importante notar que mesmo as marcas d'água visíveis podem ser facilmente removidas ou ocultadas por agentes mal-intencionados com ferramentas de edição rudimentares, o que reforça a necessidade de soluções mais avançadas. Este estudo serve como um alerta sobre a nossa vulnerabilidade à inteligência artificial e um lembrete da responsabilidade das empresas de tecnologia em desenvolver formas de prevenir a disseminação maliciosa destas imagens.

Foto do Autor

Aficionado por tecnologia desde o tempo dos sistemas a preto e branco

Ver perfil do usuário Enviar uma mensagem privada Enviar um email Facebook do autor Twitter do autor Skype do autor

conectado
Encontrou algum erro neste artigo?



Aplicações do TugaTechAplicações TugaTechDiscord do TugaTechDiscord do TugaTechRSS TugaTechRSS do TugaTechSpeedtest TugaTechSpeedtest TugatechHost TugaTechHost TugaTech