A Apple encontra-se na mira das autoridades do Reino Unido, desta vez por falhas a nível da identificação e remoção de conteúdos potencialmente abusivos e associados com abusos de menores.
A Sociedade Nacional para a Prevenção da Crueldade contra Crianças (NSPCC) do Reino Unido acusa a Apple de não aplicar medidas para evitar que conteúdos potencialmente abusivos de crianças, sejam fotos ou vídeos, sejam propagados pelas suas plataformas. A entidade afirma que a Apple não remove estes conteúdos quando tal é identificado, permitindo que os mesmos circulem pela plataforma da empresa -iCloud, iMessage e Facetime.
A entidade indica ainda que, entre abril de 2022 e março de 2023, foram identificados 337 crimes associados com menores onde a Apple e as suas plataformas estavam diretamente envolvidas, apenas no Reino Unido. No entanto, em 2023, a Apple fez apenas 267 denúncias de casos abusivos de menores a nível global – uma queda considerável.
Os valores são ainda mais expressivos tendo em conta que a Google, no mesmo tempo, registou mais de 1.47 milhões de casos, e a Meta fez mais de 30.6 milhões.
Richard Collard, chefe de política de segurança infantil on-line do NSPCC, indica a existência de uma discrepância entre os números registados pela Apple, comparativamente ao de outras entidades, tanto a nível global como do Reino Unido.
De relembrar que a Apple ainda tentou lançar uma ferramenta, apelidada de “neuralMatch”, que teria como objetivo analisar as imagens enviadas pelos utilizadores para a plataforma, de forma a identificar possíveis casos de abusos de menores – usando uma base de dados dos mesmos. No entanto, a funcionalidade foi removida em 2022, depois de pressão dos utilizadores e clientes da empresa, relativamente a receios sobre a privacidade.
Nenhum comentário
Seja o primeiro!