
Na sua mais recente conferência para programadores, a WWDC 2025, a Apple desvendou uma série de novidades para o Apple Intelligence, destinadas tanto a programadores como aos consumidores. A grande estrela foi o novo framework Foundation Models, que promete revolucionar a forma como as aplicações integram inteligência artificial.
Novas ferramentas para programadores com foco na privacidade
Com o novo framework Foundation Models, os programadores ganham a capacidade de integrar experiências de IA nas suas aplicações que funcionam totalmente offline, garantindo a privacidade do utilizador e sem quaisquer custos associados. Esta estrutura é alimentada por modelos de inteligência artificial desenvolvidos internamente pela própria Apple.
A par desta novidade, a empresa de Cupertino revelou também uma nova geração de modelos de linguagem. Segundo a Apple, estes modelos atualizados são mais rápidos, eficientes e apresentam melhorias significativas na utilização de ferramentas, capacidades de raciocínio e suporte multimodal para processar tanto imagens como texto. Atualmente, suportam um total de 15 idiomas.
Os novos modelos de IA da Apple em detalhe
O ecossistema Apple Intelligence passa a contar com dois modelos de base distintos para lidar com diferentes tarefas:
- Um modelo com 3 mil milhões de parâmetros, otimizado para correr diretamente nos dispositivos com processadores Apple Silicon.
- Um modelo de servidor, baseado numa arquitetura de "misto de especialistas" (mixture-of-experts), pensado para o Private Cloud Compute, o sistema de computação segura na nuvem da Apple.
A Apple fez questão de salientar que o modelo de 3 mil milhões de parâmetros que corre localmente não foi concebido para ser um chatbot de uso geral, como o ChatGPT. Em vez disso, a sua função é executar tarefas específicas relacionadas com texto, como a criação de resumos, extração de entidades, compreensão e refinamento de texto, diálogos curtos e geração de conteúdo criativo.
Como se comparam com a concorrência?
A grande questão é saber qual o desempenho dos modelos da Apple quando comparados com as soluções líderes de mercado. Em vez de recorrer a benchmarks de IA padronizados, a Apple optou por partilhar os resultados das suas próprias avaliações internas.

Segundo as avaliações internas divulgadas pela Apple na sua página de investigação em Machine Learning, o cenário de desempenho é misto:
- Em tarefas de texto, o seu modelo de 3 mil milhões que corre no dispositivo tem um desempenho favorável contra o Qwen-2.5-3B (ligeiramente maior) e é competitivo com os modelos Qwen-3-4B e Gemma-3-4B em inglês. Já o modelo de servidor da Apple supera ligeiramente o Llama-4-Scout, mas fica aquém do Qwen-3-235B e do conhecido GPT-4o da OpenAI.
- Em avaliações com imagens, o modelo no dispositivo da Apple supera o InternVL e o Qwen, apresentando um desempenho competitivo contra o Gemma. O modelo de servidor, por sua vez, consegue vencer o Qwen-2.5-VL, mas revela-se inferior ao Llama-4-Scout e, mais uma vez, ao GPT-4o.
Análise: Apple ainda tem um longo caminho a percorrer
Estes resultados, embora promissores em alguns aspetos, demonstram que a Apple ainda tem um percurso considerável pela frente no que toca a capacidades de IA fundamentais. A escolha de comparar os seus modelos com o GPT-4o parece ser uma manobra estratégica para que o seu desempenho pareça relativamente decente.
Se a comparação fosse feita com os mais recentes modelos da série "O" da OpenAI ou com o Gemini 2.5 Pro da Google, é muito provável que a diferença de desempenho fosse ainda mais acentuada. Resta agora observar como a Apple irá navegar a era da inteligência artificial com as suas capacidades internas nos próximos anos.