
A chegada do GPT-5 da OpenAI foi recebida com o entusiasmo habitual, prometendo um novo salto de produtividade. Contudo, no meio da euforia, surgem vozes de preocupação vindas diretamente do terreno: a dependência excessiva de modelos de linguagem avançados (LLMs) pode estar a criar uma geração de profissionais que ignora os fundamentos do seu próprio trabalho.
O perigo de confiar cegamente no código gerado por IA
O alerta foi lançado por Jordan Goodman, um analista de dados que, num artigo recente, partilhou a sua inquietação ao ver colegas a "saltar descaradamente por cima dos fundamentos" graças à utilização de ferramentas de Inteligência Artificial.
Goodman relata um cenário cada vez mais comum e preocupante: colegas que confiam em consultas SQL complexas geradas pela IA sem serem capazes de explicar o que o código faz ou como o depurar em caso de erro. Esta confiança cega pode levar a resultados incorretos e a um código de difícil gestão, uma vez que a pessoa que o implementou não participou no seu desenvolvimento nem o compreende verdadeiramente.
O analista teme que as empresas estejam a ser iludidas pela ideia de que a IA irá "magicamente compensar a falta de proficiência". Embora os LLMs possam, sem dúvida, acelerar a chegada a uma solução, continua a ser crucial que os profissionais compreendam o processo e o resultado.
Uma nova indústria para limpar a "programação por vibrações"?
Para além do risco real de se criarem verdadeiros "ninhos" de código "vibe-coded" (programado mais por sensação do que por lógica), existe o receio de que esta automação leve a uma perda de competências humanas e de supervisão. Isto poderia resultar em erros graves e praticamente indetetáveis no trabalho profissional.
Goodman brinca, de forma algo premonitória, com a possibilidade de surgir uma nova indústria dedicada a limpar o código mal gerado, estabelecendo um paralelo com a necessidade que alguns bancos ainda hoje têm de contratar programadores de linguagens antigas, como Fortran, para manter sistemas legados.
A IA é uma assistente, não uma substituta
O ponto central de Goodman é claro: os profissionais precisam de compreender o que a IA está a produzir para poderem explicar, depurar e, acima de tudo, garantir a qualidade e a precisão do seu trabalho. A responsabilidade final, independentemente das ferramentas utilizadas, continua a ser do humano.
Para quem pondera uma carreira em programação e teme a ascensão da IA, a experiência de Goodman serve de consolo. A IA afirma-se como uma assistente poderosa, mas parece ainda estar longe de poder assumir as rédeas por completo. Os fundamentos, ao que parece, ainda importam.










Nenhum comentário
Seja o primeiro!