
A indústria dos videojogos continua a expandir-se a um ritmo alucinante, com perspetivas de atingir os 206,5 mil milhões de dólares em 2028. Para ajudar os estúdios a entregar novos títulos aos quase quatro mil milhões de jogadores em todo o mundo, a marca levou ao palco da GDC 2026 um novo ecossistema de desenvolvimento. De acordo com as novidades partilhadas pela Razer, a estratégia passa por unificar a criação através de ferramentas impulsionadas por IA, combinando software, hardware e experiências sensoriais de nova geração. O vice-presidente de software da empresa, Quyen Quach, sublinha que o objetivo é amplificar a criatividade humana, deixando as equipas livres para se concentrarem na arte de fazer jogos memoráveis.
Assistente AVA: de holograma a gestor de tarefas
Quem acompanhou a feira de tecnologia CES no início de 2026 certamente recorda-se do Project AVA, inicialmente apresentado como um pequeno companheiro holográfico de secretária. Agora, a plataforma evoluiu para um verdadeiro assistente inteligente capaz de compreender intenções e executar processos complexos. O Razer AVA consegue navegar por diferentes aplicações e serviços para concluir ações com múltiplas etapas.
Alimentado por um sistema híbrido de processamento, a tecnologia divide o esforço entre a nuvem e o processamento local para garantir a menor latência possível. Além de interagir com serviços de terceiros, como o Spotify, o assistente consegue comunicar com outros agentes virtuais para organizar o dia a dia dos utilizadores, desde a marcação de reuniões à gestão de calendários. A fase de testes beta já tem inscrições abertas, com o acesso antecipado a arrancar no segundo trimestre de 2026.
Testes de qualidade automáticos e imersão em tempo real
Outra grande aposta da marca destina-se a revolucionar a forma como os jogos são testados. O QA Companion-AI chega aos estúdios como uma solução pronta a usar, dispensando integrações demoradas, modificações no código ou instalação de plugins. O sistema utiliza visão computacional avançada para analisar vídeos de jogabilidade, conseguindo detetar problemas de colisão, física ou renderização. A IA gera depois relatórios completos que incluem os passos exatos para reproduzir a falha, poupando horas de trabalho manual.
Para os jogadores em casa, a grande novidade é o Adaptive Immersive Experience. Trata-se de um sistema que analisa o áudio e os gráficos do jogo em tempo real para gerar efeitos de luz e respostas táteis de forma automática. Esta tecnologia reduz o tempo de otimização nos estúdios para apenas três dias, sendo totalmente compatível com os motores Unity e Unreal Engine. Ao transformar o som diretamente em feedback físico, a plataforma promete uma experiência mais profunda e coerente, cuja disponibilização começa logo durante o primeiro trimestre deste ano.












Nenhum comentário
Seja o primeiro!