1. TugaTech » Software » Noticias de Software
  Login     Registar    |                      
Siga-nos

GPT‑5.3‑Codex‑Spark

A OpenAI anunciou uma novidade que promete transformar a forma como os programadores trabalham. Trata-se de uma revelação para pesquisa do GPT-5.3-Codex-Spark, uma versão mais compacta do seu modelo de geração de código, desenhada especificamente para cenários de programação em tempo real.

No mês passado, a empresa já tinha revelado uma parceria com a Cerebras, uma startup focada na criação de sistemas desenhados para acelerar a produção de grandes resultados por inteligência artificial. Na altura, o objetivo declarado era integrar a tecnologia de baixa latência da Cerebras de forma faseada, abrangendo tarefas como a geração de código e de imagens.

O motor por trás de uma velocidade impressionante

A grande estrela deste anúncio é o desempenho alcançado. Alimentado pelo Wafer Scale Engine 3 da Cerebras, o GPT-5.3-Codex-Spark consegue gerar mais de 1000 tokens por segundo, mantendo uma forte capacidade de resposta. Como se trata de uma versão mais pequena, não é esperado que o desempenho atinja a capacidade total do GPT-5.3-Codex, mas a empresa garante que o seu nível de competência se situa entre o GPT-5.3-Codex e o GPT-5.1-Codex-Mini.

capacidade de teste do modelo da OpenAI

Nesta fase inicial, a ferramenta suporta uma janela de contexto de 128 mil tokens e aceita apenas entradas em formato de texto. Contudo, os planos para o futuro incluem a adição de suporte para modelos maiores, contextos ainda mais extensos e a introdução de capacidades multimodais.

Disponibilidade limitada aos utilizadores Pro

Se estás interessado em testar esta velocidade vertiginosa, o lançamento está limitado aos subscritores do plano ChatGPT Pro. Para teres acesso a este modelo de latência ultrabaixa, precisas de atualizar para as versões mais recentes da aplicação Codex, da interface de linha de comandos (CLI) e da extensão para o VS Code.

É importante notar que o modelo terá os seus próprios limites de taxa de utilização, os quais não irão contar para os teus limites padrão. No entanto, a empresa alerta que, caso existam picos de procura, o acesso poderá ser ainda mais restrito ou os utilizadores poderão ser colocados em filas de espera para manter a fiabilidade do sistema. Paralelamente, uma pequena seleção de parceiros de design já tem acesso através da API, para que a empresa possa entender como os programadores querem integrar a ferramenta noutros produtos e serviços.

Apesar desta forte aposta, os GPUs continuam a ser a principal plataforma de computação para as linhas de treino e execução geral da empresa. A tecnologia da Cerebras foi posicionada como a melhor opção especificamente para tarefas do Codex que exigem uma latência extremamente baixa. Para o futuro, as duas tecnologias poderão ser combinadas numa única tarefa para alcançar o melhor desempenho geral, segundo a informação partilhada pela OpenAI.

Foto do Autor

Aficionado por tecnologia desde o tempo dos sistemas a preto e branco

Ver perfil do usuário Enviar uma mensagem privada Enviar um email Facebook do autor Twitter do autor Skype do autor

conectado
Encontrou algum erro neste artigo?



Aplicações do TugaTechAplicações TugaTechDiscord do TugaTechDiscord do TugaTechRSS TugaTechRSS do TugaTechSpeedtest TugaTechSpeedtest TugatechHost TugaTechHost TugaTech