1. TugaTech » Internet e Redes » Noticias da Internet e Mercados
  Login     Registar    |                      
Siga-nos

Edifício da Microsoft

Acha que consegue distinguir facilmente uma fotografia real de uma imagem criada por inteligência artificial? Um novo e abrangente estudo da Microsoft sugere que a nossa confiança pode estar mal colocada. A investigação concluiu que os humanos acertam apenas em 62% das vezes, um resultado modestamente acima do puro acaso.

Somos piores do que pensamos a detetar o que é falso

Numa experiência que envolveu mais de 12.500 participantes a nível global e a avaliação de 287.000 imagens, a equipa da Microsoft AI for Good descobriu uma realidade preocupante. Os participantes jogaram um jogo de "Real ou Falso", onde lhes foram mostradas imagens que poderiam encontrar no seu dia a dia online, evitando a escolha de exemplos demasiado óbvios ou enganadores.

O estudo revelou que, embora tenhamos mais facilidade em identificar retratos humanos falsos, a nossa capacidade cai a pique quando se trata de paisagens naturais ou urbanas. Nestas categorias, a taxa de sucesso desceu para valores entre 59% e 61%, sublinhando a dificuldade em detetar criações de IA que não apresentem falhas evidentes ou um estilo artístico muito marcado.

As técnicas que baralham o nosso cérebro

Curiosamente, os investigadores notaram que a nossa maior facilidade em detetar rostos falsos se deve provavelmente à nossa capacidade inata para identificar caras e detetar anomalias em retratos gerados por IA.

No entanto, o estudo trouxe à luz um dado interessante: as redes generativas adversariais (GANs) mais antigas e as técnicas de inpainting mostraram ser particularmente eficazes a enganar os utilizadores. Isto acontece porque produzem imagens que se assemelham a fotografias amadoras, em vez da estética de estúdio polida de modelos populares como o Midjourney e o DALL-E 3.

A técnica de inpainting é especialmente alarmante. Consiste em substituir um pequeno elemento de uma fotografia real por algo gerado por IA, tornando a falsificação extremamente difícil de identificar e representando um risco significativo para campanhas de desinformação.

Microsoft apela a mais transparência e ferramentas de deteção

Face a estes resultados, a Microsoft apela à implementação de ferramentas de transparência, como marcas d'água, e ao desenvolvimento de detetores de IA mais robustos para mitigar os riscos de desinformação. A gigante de Redmond já tinha lançado anteriormente uma campanha para educar o público sobre estes perigos.

Para reforçar a ideia, os próprios investigadores usaram uma ferramenta de deteção de IA que alcançou uma taxa de sucesso superior a 95%, tanto em imagens reais como nas geradas artificialmente. Isto sugere que a assistência de máquinas é consideravelmente mais fiável que o julgamento humano, embora ainda não seja perfeita.

É importante notar que mesmo as marcas d'água visíveis podem ser facilmente removidas ou ocultadas por agentes mal-intencionados com ferramentas de edição rudimentares, o que reforça a necessidade de soluções mais avançadas. Este estudo serve como um alerta sobre a nossa vulnerabilidade à inteligência artificial e um lembrete da responsabilidade das empresas de tecnologia em desenvolver formas de prevenir a disseminação maliciosa destas imagens.




Aplicações do TugaTechAplicações TugaTechDiscord do TugaTechDiscord do TugaTechRSS TugaTechRSS do TugaTechSpeedtest TugaTechSpeedtest TugatechHost TugaTechHost TugaTech