
Os estados-membros da União Europeia chegaram finalmente a um consenso sobre a legislação de proteção infantil online, adotando uma postura que recua significativamente nas exigências feitas às grandes tecnológicas. A nova posição acordada determina que as plataformas globais não serão forçadas a identificar e remover proativamente materiais de abuso sexual infantil (CSAM), uma decisão que é interpretada como uma vitória estratégica para gigantes norte-americanos como a Google e a Meta.
Esta mudança de direção representa um afastamento claro da linha dura que vinha sendo desenhada anteriormente.
O fim da vigilância obrigatória
A nova linguagem adotada pelo Conselho Europeu contradiz a posição de 2023, na qual o Parlamento Europeu pretendia obrigar serviços de mensagens, lojas de aplicações e fornecedores de internet a reportar e remover ativamente materiais ilegais e tentativas de aliciamento (grooming). A legislação agora proposta elimina essa obrigatoriedade de varrimento generalizado.
Em vez de impor uma vigilância ativa, a nova proposta transfere a responsabilidade para uma lógica de gestão de risco. As grandes empresas de tecnologia, como a Google e a Meta, ficarão encarregues de avaliar os riscos dos seus serviços e de adotar as medidas preventivas que considerem necessárias.
Além disso, a fiscalização deixará de estar centralizada num organismo da UE. O Conselho Europeu declarou que os estados-membros irão designar autoridades nacionais responsáveis por avaliar estas análises de risco e as medidas de mitigação, mantendo a possibilidade de obrigar os fornecedores a agir se necessário. Em caso de incumprimento, as empresas poderão enfrentar sanções financeiras, segundo reporta a Reuters.
Encriptação e críticas à privacidade
Um dos pontos mais sensíveis deste debate sempre foi a encriptação de ponta-a-ponta. O novo texto não contém linguagem que obrigue ao varrimento de materiais encriptados para deteção de CSAM, uma ideia que estava em cima da mesa ainda no ano passado. Pelo contrário, existe agora uma indicação de que os serviços de encriptação devem ser salvaguardados.
No entanto, esta abordagem de "autorregulação" não convence todos os intervenientes. Alguns críticos, como a República Checa, sugerem que permitir que as entidades tecnológicas se policiem a si mesmas pode, na prática, acabar por prejudicar as plataformas de encriptação.
Markéta Gregorová, política checa, classificou a decisão como "uma grande desilusão para todos os que se preocupam com a privacidade". Segundo Gregorová, a presidência dinamarquesa forçou uma versão de compromisso que, embora pareça menos invasiva à primeira vista, "abre caminho para aquilo contra o qual temos avisado há muito tempo: o varrimento generalizado das nossas conversas privadas".
O que se segue
A proposta de lei prevê ainda a criação do Centro da UE para o Abuso Sexual Infantil. Esta nova organização terá o mandato de ajudar os países a cumprir as normas e fornecer assistência às vítimas.
É importante notar que, embora os estados-membros tenham chegado a um acordo, o processo legislativo não está concluído. O Conselho terá agora de entrar em negociações com o Parlamento Europeu para finalizar o texto da lei. Recentemente, o Parlamento Europeu também apelou à UE para definir idades mínimas para o acesso às redes sociais, embora não exista atualmente nenhuma lei concreta em desenvolvimento nesse sentido.










Nenhum comentário
Seja o primeiro!