A nova aplicação de inteligência artificial da Meta, lançada em abril, está no centro de uma enorme controvérsia de privacidade. A app Meta AI, que promete ser um assistente pessoal com base nos modelos Llama, está a expor inadvertidamente conversas privadas de centenas de utilizadores num feed público, incluindo dados extremamente sensíveis.
A falha grave de privacidade foi exposta em reportagens recentes, nomeadamente pela BBC, e revela um problema fundamental na forma como a aplicação foi desenhada, colocando em risco a segurança e a privacidade de quem a utiliza.
Desde diagnósticos médicos a moradas: a escala da informação exposta
A quantidade e a sensibilidade dos dados expostos são alarmantes. Utilizadores viram as suas conversas sobre os mais variados tópicos pessoais a serem publicadas publicamente, muitas vezes acompanhadas do seu nome de utilizador real e até de mensagens de áudio.
A lista de informação exposta inclui:
- Crises de saúde mental e diagnósticos médicos privados.
- Confissões de relações extraconjugais.
- Discussões sobre problemas legais e evasão fiscal.
- Assuntos de natureza sexual.
- Informação de identificação pessoal, como moradas e números de segurança social.
O problema é agravado pelo facto de estas publicações estarem abertas a comentários de qualquer pessoa, abrindo a porta a situações de assédio, humilhação pública ou roubo de identidade. Vários utilizadores, chocados, compilaram em redes sociais como o X dezenas de exemplos destas conversas privadas que se tornaram públicas, alertando outros para a gravidade da situação.
A culpa é de um botão? A falha na interface que engana os utilizadores
A origem desta violação de privacidade parece ser uma falha grave na experiência de utilização (UX). O botão "Partilhar" dentro da aplicação Meta AI não oferece um aviso claro de que o conteúdo será publicado num feed público. A Meta optou por uma partilha pública por defeito, com apenas um pequeno aviso legal fácil de ignorar.
Esta abordagem contrasta fortemente com a de concorrentes como o ChatGPT ou o Gemini da Google, que disponibilizam links privados e controlos de partilha muito mais explícitos. No caso da Meta, a facilidade com que um utilizador pode, sem querer, tornar pública uma conversa sensível, evidencia um descuido na proteção dos seus utilizadores.
Como se pode proteger e limitar a exposição dos seus dados
Até ao momento, a Meta não implementou uma alteração transparente e clara ao processo de partilha para resolver o problema de raiz. A responsabilidade de evitar a exposição pública recai, por agora, inteiramente sobre o utilizador.
Para garantir que as suas interações com a Meta AI permanecem privadas, os utilizadores devem navegar até às Definições, depois Dados e privacidade e, em seguida, Gerir a sua Informação. Nesta área, é possível ocultar os pedidos anteriores e desativar as sugestões de partilha no Facebook e Instagram. O facto de ser necessário um ajuste manual para garantir a privacidade sublinha a seriedade desta falha de design.
Nenhum comentário
Seja o primeiro!