As duas maiores editoras no mercado dos videojogos, a Ubisoft e Riot Games, confirmaram estarem a trabalhar num novo projeto, centrado em reduzir o ambiente tóxico que se verifica nos chats de jogos online.
O projeto, apelidado de "Zero Harm in Comms", será dividido em três fases, com o objetivo de criar uma nova forma de reduzir o ambiente tóxico dos jogos online. A primeira fase será onde as duas entidades vão criar uma nova framework, focada para permitir a troca e recolhe de informações sobre os utilizadores de forma segura e privada.
Esta primeira fase será fundamental, de forma a garantir que os jogadores possuem a sua privacidade, e não são recolhidos no processo dados potencialmente identificadores. As empresas parecem bastante focadas nesta ideia de privacidade, sendo mesmo indicado que, caso não sejam encontradas formas de realizar o projeto com privacidade, o mesmo será imediatamente terminado.
Feita esta plataforma, a segunda fase será de desenvolver ferramentas para identificar comportamentos tóxicos no chat, algo que as duas empresas pretendem realizar com recurso a Inteligência Artificial.
Este sistema poderia basear-se numa lista de palavras que seriam identificadas como maliciosas ou rudes, e posteriormente analisadas em contexto com o resto do chat via o sistema de IA.
A terceira e última fase será a implementação da tecnologia nos serviços das duas entidades. Com esta fase, os utilizadores poderiam começar a ver menos conteúdos tóxicos nos chats, sendo as mensagens ofensivas automaticamente filtradas para analise ou bloqueadas.
De notar que as duas empresas apontam que o projeto ainda se encontra numa fase bastante inicial de desenvolvimento, e poderá demorar algum tempo até que algo final venha realmente a ser apresentado. Além disso, resta ainda saber se a tecnologia de IA será suficiente para resolver este problema.
Nenhum comentário
Seja o primeiro!