1. TugaTech » Software » Noticias de Software
Siga-nos

Apple com o logo sobre uma parede

 

Recentemente a Apple revelou a nova funcionalidade a chegar em breve aos seus sistemas, conhecida como Child Sexual Abuse Material (CSAM). Esta funcionalidade irá ser utilizada no iCloud Fotos como forma de analisar as fotos dos utilizadores e identificar conteúdos potencialmente abusivos de menores.

 

A funcionalidade, no entanto, não vai estar disponível de imediato em todos os locais. De acordo com o portal 9to5Mac, a empresa deverá lançar o novo sistema primeiro nos EUA, sendo que fora do mesmo deverá ainda demorar algum tempo até ser implementado – dependendo do pais em questão.

 

Apesar de não serem avançados planos em concreto, em comunicado a Apple refere que o sistema de CSAM, fora dos EUA, irá ser integrado nos sistemas dos utilizadores de forma gradual. A empresa pretende primeiro garantir que o sistema se encontra dentro dos padrões de privacidade de cada local antes de o implementar de forma geral para todos os utilizadores.

 

Apesar de não serem avançados dados concretos de quando esta funcionalidade vai realmente ser integrada em Portugal, é possível que ainda demore vários meses depois da chegada da nova versão do iOS 15 e derivados até que a mesma seja ativada.

 

De relembrar que este sistema de CSAM da Apple tem vindo a ganhar também bastante controvérsia para a empresa, com bastantes apoiantes da privacidade digital a considerarem que a mesma abre portas para uma possível vigilância em massa dos utilizadores.

 

Nenhum comentário

Seja o primeiro!





Aplicações do TugaTechAplicações TugaTechDiscord do TugaTechDiscord do TugaTechRSS TugaTechRSS do TugaTechSpeedtest TugaTechSpeedtest TugatechHost TugaTechHost TugaTech