
A rede social X (antigo Twitter) introduziu uma nova funcionalidade que está a gerar uma forte onda de críticas entre a comunidade online. A plataforma disponibilizou um botão de edição de imagem, impulsionado por Inteligência Artificial, que permite a qualquer pessoa modificar fotografias publicadas por outros utilizadores. O aspeto mais controverso é a total ausência de mecanismos de proteção: não é necessário o consentimento do autor original, não existem notificações de que a imagem foi alterada e, até ao momento, não há forma de desativar esta opção.
Uma ferramenta poderosa e sem barreiras
A nova funcionalidade surge sob a forma de um botão "Edit Image" (Editar Imagem) disponível nas publicações que contenham fotografias padrão. Ao acionar este botão, o utilizador é apresentado a uma interface baseada em texto, alimentada pelo Grok, o modelo de IA generativa da empresa.
O processo é rápido e direto: basta escrever uma instrução (prompt) e o sistema devolve uma versão alterada da imagem original em poucos segundos. A ferramenta inclui opções para pré-visualizar os resultados e partilhar a imagem manipulada diretamente nas páginas de perfil ou no feed "Para Si".
Conforme detalhado pelo 80.lv, o botão de edição aparece em todos os perfis, independentemente de pertencerem a utilizadores comuns, contas verificadas ou figuras públicas. A funcionalidade foi ativada por defeito para toda a base de utilizadores, sem qualquer aviso prévio ou opção de "opt-out" (recusa) nas definições de privacidade.
Riscos de privacidade e direitos de autor
O lançamento desta ferramenta desencadeou uma reação imediata e negativa por parte de vários setores da comunidade. Artistas e fotógrafos manifestaram a sua indignação ao verem obras protegidas por direitos de autor serem modificadas e republicadas com um esforço mínimo, desvirtuando o trabalho original.
No entanto, as preocupações vão muito além da propriedade intelectual. A facilidade com que o sistema permite alterar fotografias pessoais levantou alarmes sobre assédio e violação de privacidade. Existem relatos de utilizadores comuns, especialmente mulheres, que viram fotos inócuas do seu dia a dia serem transformadas pela IA em cenários sugestivos ou invasivos, sem qualquer autorização ou conhecimento.
Esta situação agrava o clima de incerteza na plataforma liderada por Elon Musk, que tem apostado fortemente na automatização e na liberdade de ferramentas, muitas vezes em detrimento da moderação de conteúdo.
Existe alguma forma de proteção?
Perante a inexistência de uma opção oficial para impedir que as suas fotos sejam processadas pela IA do X, os utilizadores têm procurado soluções alternativas.
Uma das sugestões que tem ganho tração na comunidade envolve a conversão de ficheiros de imagem (como PNG ou JPG) para o formato GIF antes da publicação. Aparentemente, a ferramenta de IA tem, por enquanto, maior dificuldade em reconhecer ou processar este formato como uma imagem editável.
Contudo, esta é apenas uma barreira temporária e técnica. Nada impede verdadeiramente que um utilizador mal-intencionado descarregue a fotografia original e utilize ferramentas externas para realizar as mesmas alterações, embora a integração nativa na rede social torne o processo assustadoramente acessível e imediato para as massas.










Nenhum comentário
Seja o primeiro!