
Os utilizadores do GitHub Copilot CLI têm agora acesso a uma nova ferramenta experimental chamada Rubber Duck, desenhada para elevar o desempenho dos modelos de linguagem na programação. Segundo os detalhes partilhados no GitHub Blog, os testes demonstraram que esta técnica consegue reduzir a diferença de desempenho entre os modelos Claude Sonnet e Opus em cerca de 74,7%.
O conceito do pato de borracha na inteligência artificial
Para quem não está familiarizado com o termo, o "rubber ducking" é uma tática clássica no mundo da programação que consiste em explicar um problema em voz alta a um pato de borracha para tentar encontrar a solução. Na implementação do GitHub, o pato de borracha ganha vida através de um segundo modelo de inteligência artificial, proveniente de uma família diferente, que revê e avalia os planos do agente principal nos momentos críticos em que o feedback é mais necessário.
A empresa explica que os agentes de código atuais seguem um ciclo definido: avaliam a tarefa, elaboram um plano, implementam, testam e iteram. No entanto, qualquer decisão errada na fase de planeamento torna-se numa dependência que pode arruinar o trabalho final. Embora a autorreflexão seja uma técnica válida, um modelo que revê o seu próprio trabalho continua limitado pelos seus próprios preconceitos e falhas de treino. É aqui que a visão externa de um modelo distinto faz toda a diferença.
Como testar a novidade no terminal
A investigação revelou que o Rubber Duck é particularmente útil em problemas complexos que abrangem três ou mais ficheiros e que, normalmente, exigem mais de 70 passos para serem resolvidos. Para evitar o desperdício de recursos, a ferramenta pode ser ativada de forma automática, proativa e reativa, ou pode ser acionada manualmente pelo utilizador a qualquer momento para quebrar bloqueios lógicos. Se o sistema funcionar em modo automático, será chamado após a elaboração de um plano estratégico ou antes da execução de testes.
Para aceder a esta novidade, basta utilizar o comando /experimental no terminal. De momento, a funcionalidade requer a seleção de um modelo Claude na interface e acesso ao GPT-5.4, que é o motor encarregue de assumir o papel de avaliador. A partir daí, a funcionalidade corre tanto de forma silenciosa como a pedido, garantindo uma segunda opinião valiosa na hora de criar código.












Nenhum comentário
Seja o primeiro!