
A segurança online continua a ser uma prioridade absoluta para as grandes plataformas de gaming, e a gigante de Redmond acaba de revelar os frutos do seu trabalho no último ano. Com a publicação do seu sexto relatório de transparência, a Microsoft detalhou os esforços realizados durante 2025 para manter o ecossistema da consola livre de comportamentos tóxicos, destacando um uso intensivo de novas tecnologias.
O foco da empresa centrou-se em tornar a experiência de jogo mais positiva e apropriada para todas as idades, utilizando ferramentas avançadas para combater desde o simples spam até ao discurso de ódio mais complexo.
Inteligência Artificial na linha da frente
De acordo com os dados revelados, 2025 foi o ano em que a moderação assistida por Inteligência Artificial ganhou um novo fôlego. A empresa expandiu o uso destes sistemas automáticos para cobrir 11 novos tópicos considerados prejudiciais, incluindo categorias sensíveis como discurso de ódio, bullying, assédio e batota (cheating).
A estratégia passa por permitir que a IA trate da deteção automática de conteúdos nocivos em grande escala, libertando os moderadores humanos para se concentrarem em casos que exigem uma análise mais profunda e contextual. Esta abordagem proativa teve resultados imediatos e expressivos: a Xbox registou uma queda de 90% nas queixas de spam em comparação com 2024. Além disso, as reclamações sobre mensagens indesejadas de utilizadores que não são amigos diminuíram 23%.
Ferramentas mais acessíveis para os jogadores
Para além da "limpeza" automática, a empresa também melhorou as armas que coloca nas mãos dos jogadores para se defenderem. O objetivo foi simplificar o processo de denúncia de comportamentos tóxicos ou injustos.
Um exemplo prático desta nova filosofia foi implementado no Forza Horizon 5. A Turn 10 Studios aprimorou as capacidades de denúncia de conteúdo gerado pelo utilizador, permitindo que os jogadores reportem situações irregulares de forma muito mais eficiente sem terem de interromper a sua sessão. Reportar batoteiros ou conteúdo ofensivo deixou de obrigar a saídas do jogo ou navegações complexas até sites de suporte, tornando a ação mais imediata.
Uma montanha de dados analisados
O relatório apresenta números que ilustram a dimensão da tarefa de moderação numa plataforma global. Durante 2025, os sistemas da empresa analisaram uns impressionantes 14,8 mil milhões de peças de conteúdo. Deste total, cerca de 2,5% (368 milhões) foram identificados como prejudiciais, abrangendo desde nomes de utilizador e imagens até texto e outros conteúdos criados pela comunidade.
A grande maioria das violações detetadas prendeu-se com o abuso da plataforma e serviços (150 milhões), seguido por profanidade (62 milhões), pornografia (51 milhões), bullying (38 milhões) e conduta de ódio (28 milhões).
Do lado dos utilizadores, foram enviadas 39 milhões de denúncias, das quais 3,7 milhões (9,6%) resultaram em ações concretas e restrições. Curiosamente, a automação tratou da maior fatia das decisões: 2,4 milhões de relatórios foram processados automaticamente, enquanto 1,3 milhões passaram por revisão manual humana.
Para quem quiser aprofundar todos os detalhes e estatísticas sobre as medidas de segurança implementadas, é possível consultar o Xbox Transparency Report completo.












Nenhum comentário
Seja o primeiro!