
A Microsoft apresentou o seu novo modelo de linguagem pequeno (SLM), o Phi-4-mini-flash-reasoning, concebido para levar capacidades de raciocínio avançadas a ambientes com recursos limitados. A grande vantagem é a possibilidade de o correr em dispositivos edge, aplicações móveis e sistemas embebidos, reforçando a privacidade do utilizador ao evitar o envio de dados para servidores externos.
Com cada vez mais equipamentos a serem lançados com unidades de processamento neural (NPUs), torna-se mais eficaz e relevante correr modelos de inteligência artificial localmente. Desenvolvimentos como este da Microsoft são, por isso, cada vez mais importantes para o futuro da tecnologia de consumo.
A arquitetura SambaY como núcleo da inovação
A principal inovação deste novo modelo Phi da Microsoft reside na sua arquitetura, denominada SambaY. Dentro desta, encontra-se uma Gated Memory Unit (GMU) que partilha informação de forma eficiente entre as componentes internas do modelo, otimizando o seu desempenho.
Graças a estes avanços, o modelo consegue gerar respostas e completar tarefas de forma muito mais rápida, mesmo com pedidos (inputs) muito longos. O Phi-4-mini-flash-reasoning é também capaz de lidar com grandes volumes de dados e compreender textos ou conversas extensas.
Um salto de 10x no desempenho
O principal atrativo deste modelo é o seu débito até 10 vezes superior ao de outros modelos Phi. Isto significa que consegue processar um volume de trabalho consideravelmente maior num determinado período de tempo. Na prática, pode lidar com 10 vezes mais pedidos ou gerar 10 vezes mais texto no mesmo intervalo, um avanço significativo para aplicações do dia a dia. A latência foi também reduzida entre duas a três vezes.
Novas barreiras para a IA em hardware modesto
As melhorias na velocidade e eficiência do Phi-4-mini-flash-reasoning reduzem as barreiras para a execução de IA local em hardware mais modesto. A Microsoft indicou que o modelo será útil em cenários de aprendizagem adaptativa que necessitam de feedback em tempo real, como assistentes de estudo em telemóveis ou sistemas de tutoria interativos que ajustam dinamicamente a dificuldade do conteúdo com base no desempenho do utilizador.
Segundo a Microsoft, este modelo é particularmente forte em matemática e raciocínio estruturado, o que o torna valioso para tecnologia educativa, simulações leves e ferramentas de avaliação automatizada que exigem inferência lógica fiável e tempos de resposta rápidos.
O novo Phi-4-mini-flash-reasoning já se encontra disponível no Azure AI Foundry, no catálogo de API da NVIDIA e no Hugging Face.










Nenhum comentário
Seja o primeiro!