1. TugaTech » Software » Noticias de Software
  Login     Registar    |                      
Siga-nos

Apple com o logo sobre uma parede

Recentemente a Apple revelou a nova funcionalidade a chegar em breve aos seus sistemas, conhecida como Child Sexual Abuse Material (CSAM). Esta funcionalidade irá ser utilizada no iCloud Fotos como forma de analisar as fotos dos utilizadores e identificar conteúdos potencialmente abusivos de menores.

A funcionalidade, no entanto, não vai estar disponível de imediato em todos os locais. De acordo com o portal 9to5Mac, a empresa deverá lançar o novo sistema primeiro nos EUA, sendo que fora do mesmo deverá ainda demorar algum tempo até ser implementado – dependendo do pais em questão.

Apesar de não serem avançados planos em concreto, em comunicado a Apple refere que o sistema de CSAM, fora dos EUA, irá ser integrado nos sistemas dos utilizadores de forma gradual. A empresa pretende primeiro garantir que o sistema se encontra dentro dos padrões de privacidade de cada local antes de o implementar de forma geral para todos os utilizadores.

Apesar de não serem avançados dados concretos de quando esta funcionalidade vai realmente ser integrada em Portugal, é possível que ainda demore vários meses depois da chegada da nova versão do iOS 15 e derivados até que a mesma seja ativada.

De relembrar que este sistema de CSAM da Apple tem vindo a ganhar também bastante controvérsia para a empresa, com bastantes apoiantes da privacidade digital a considerarem que a mesma abre portas para uma possível vigilância em massa dos utilizadores.

Foto do Autor

Aficionado por tecnologia desde o tempo dos sistemas a preto e branco

Ver perfil do usuário Enviar uma mensagem privada Enviar um email Facebook do autor Twitter do autor Skype do autor

conectado
Encontrou algum erro neste artigo?



Aplicações do TugaTechAplicações TugaTechDiscord do TugaTechDiscord do TugaTechRSS TugaTechRSS do TugaTechSpeedtest TugaTechSpeedtest TugatechHost TugaTechHost TugaTech