A JetBrains, conhecida pelas suas ferramentas de desenvolvimento, acaba de lançar o seu primeiro modelo aberto de inteligência artificial focado na geração de código. Batizado de Mellum, o modelo já se encontra disponível na popular plataforma Hugging Face.
Desenvolvido especificamente para tarefas de conclusão de código (code completion), o Mellum promete ser um assistente valioso para programadores, oferecendo suporte a uma vasta gama de linguagens, incluindo Java, Python, C++, JavaScript, entre outras. De momento, já está integrado no JetBrains AI Assistant.
Foco na conclusão de código e integração
O principal objetivo do Mellum é auxiliar os developers a escrever código de forma mais eficiente, sugerindo continuações lógicas e contextuais. A sua integração com o ecossistema JetBrains, nomeadamente o AI Assistant, demonstra a aposta da empresa em incorporar capacidades de IA generativa diretamente nas suas ferramentas de desenvolvimento.
Detalhes técnicos e treino robusto
Este modelo de linguagem de grande escala (LLM) conta com 4 mil milhões de parâmetros. O seu treino foi um processo intensivo: decorreu ao longo de 20 dias, utilizando 256 GPUs Nvidia H200 e processando mais de 4 biliões (trillion em inglês) de tokens, o que equivale a cerca de 120 mil milhões de linhas de código.
Para o treino, a JetBrains utilizou fontes de dados licenciadas permissivamente, como código disponível no GitHub e textos da Wikipedia em inglês. Esta escolha permite que o Mellum seja utilizado tanto em projetos académicos como comerciais, graças à sua licença Apache 2.0.
Licenciamento aberto e casos de uso específicos
A licença Apache 2.0 garante flexibilidade na utilização do Mellum. A JetBrains salienta que o modelo foi pensado para ser integrado em ferramentas para programadores, assistentes de código, projetos de investigação e fins educativos, não sendo otimizado para aplicações gerais de inteligência artificial, como chatbots.
Necessidade de ajuste fino e considerações importantes
É crucial notar que o Mellum, na sua forma base, não está pronto para ser usado diretamente em produção para tarefas muito específicas. Requer um processo de "ajuste fino" (fine-tuning) para otimizar o seu desempenho em contextos particulares. Para facilitar a experimentação, a JetBrains disponibiliza alguns modelos de exemplo já afinados para Python, embora reforce que estes não devem ser usados em ambientes de produção.
A empresa adverte ainda que, por ter sido treinado com bases de dados públicas de código, o Mellum pode ocasionalmente gerar código que reflete preconceitos existentes nessas bases. Além disso, não há garantia de que o código gerado esteja isento de vulnerabilidades ou falhas de segurança, sendo sempre necessária a revisão por parte do programador.
Nenhum comentário
Seja o primeiro!