
A Inteligência Artificial, e em particular chatbots como o ChatGPT, transformaram a forma como interagimos com a tecnologia. São ferramentas fantásticas para organizar um plano de refeições, planear uma viagem com orçamento limitado ou até para explorar uma mudança de carreira. No entanto, esta revolução não significa que a IA sirva para tudo. Apesar de ser um entusiasta, conheço bem as suas limitações, e é crucial que todos, do novato ao especialista, as compreendam. Dar "carta branca" ao ChatGPT na sua vida pode ser uma péssima ideia, pois em muitas situações, a sua utilidade é questionável e pode mesmo tornar-se perigosa.
O ChatGPT por vezes "alucina", apresentando informações falsas como factos verídicos, e nem sempre dispõe dos dados mais recentes. Exibe uma confiança inabalável, mesmo quando está redondamente enganado. Esta característica torna-se especialmente arriscada quando os temas são sérios: impostos, diagnósticos médicos, datas de tribunal ou saldos bancários. Se não tens a certeza sobre quando é arriscado recorrer ao ChatGPT, apresentamos 11 cenários em que o melhor é mesmo escolher outra opção.
A sua saúde em primeiro lugar, não a do chatbot
É tentador descrever os nossos sintomas ao ChatGPT por curiosidade, mas as respostas podem assemelhar-se ao pior dos pesadelos. Ao analisar os potenciais diagnósticos, pode saltar de desidratação para uma gripe ou, no pior dos casos, para um tipo de cancro. A IA pode ajudar a preparar uma lista de perguntas para a consulta, traduzir jargão médico ou organizar uma cronologia de sintomas. Contudo, não pode pedir análises, examinar o paciente e, claro, não tem seguro de responsabilidade civil.
O mesmo se aplica à saúde mental. O ChatGPT pode sugerir técnicas de relaxamento, mas não pode atender uma chamada quando estás numa crise. Funciona, na melhor das hipóteses, como uma imitação pálida de um terapeuta e, na pior, como um risco. Falta-lhe experiência de vida, a capacidade de ler a linguagem corporal e o tom de voz, e não possui empatia genuína. Um terapeuta licenciado opera sob mandatos legais e códigos profissionais que te protegem. Se tu ou alguém que conheces estiver em crise, o mais sensato é contactar um profissional qualificado ou ligar para a linha de apoio adequada.
Dinheiro, leis e dados confidenciais: uma combinação perigosa
O ChatGPT pode explicar o que é um ETF, mas não conhece o teu rácio de dívida, escalão de IRS, estado civil, deduções, objetivos de reforma ou tolerância ao risco. Como os seus dados de treino podem não incluir o ano fiscal corrente ou as últimas alterações fiscais, a sua orientação pode estar desatualizada. Inserir os totais das tuas faturas para fazer uma declaração de impostos "faça você mesmo" é arriscado. Um contabilista pode encontrar uma dedução escondida que vale centenas de euros ou detetar um erro que te custaria milhares. Quando dinheiro, prazos e penalizações das Finanças estão em jogo, o melhor é chamar um profissional.
Além disso, tudo o que partilhas com um chatbot pode tornar-se parte dos seus dados de treino, incluindo rendimentos ou outros dados sensíveis. O mesmo risco aplica-se a contratos de clientes, relatórios médicos ou qualquer informação protegida pelo RGPD. Uma vez que a informação sensível está na janela de texto, não há garantias sobre onde é armazenada ou quem a pode rever.
Situações de emergência e decisões críticas
Se o teu alarme de monóxido de carbono começar a apitar, não abras o ChatGPT para perguntar se estás em perigo. Sai de casa primeiro e faz perguntas depois. Um modelo de linguagem não consegue cheirar gás, detetar fumo ou chamar os serviços de emergência. Numa crise, cada segundo que passas a escrever é um segundo que não estás a evacuar ou a ligar para o 112.

Da mesma forma, utilizar a IA para fazer trabalhos académicos é uma péssima ideia. Ferramentas como o Turnitin estão cada vez melhores a detetar textos gerados por IA, e os professores já conseguem identificar a "voz do ChatGPT" à distância. A suspensão ou expulsão são riscos reais. É preferível usar a IA como um parceiro de estudo, não como um escritor fantasma. Afinal, ao fazê-lo, estás apenas a enganar-te a ti mesmo e a desperdiçar a oportunidade de aprender.
Notícias de última hora, apostas e contratos legais
Embora o ChatGPT tenha acesso a informações da web, não fornece atualizações contínuas por si só. Cada atualização requer um novo pedido, pelo que, quando a velocidade é crítica, as fontes de dados em tempo real, comunicados de imprensa oficiais e sites de notícias continuam a ser a melhor aposta.
No que toca a apostas, a IA pode alucinar e fornecer estatísticas incorretas de jogadores, lesões mal reportadas e registos de vitórias e derrotas falsos. Não confies apenas num chatbot para prever o resultado de amanhã. O mesmo se aplica à redação de um testamento ou de outros contratos juridicamente vinculativos. As regras legais variam e um pequeno erro, como a omissão de uma assinatura de testemunha, pode invalidar todo o documento. Usa a IA para criar uma lista de perguntas para o teu advogado, mas deixa que seja o profissional a redigir o documento final.
Criar arte e fazer o que é ilegal
Esta última é mais uma opinião pessoal, mas a IA não deveria ser usada para criar arte que depois se apresenta como própria. Usar o ChatGPT para brainstorming ou para ajudar com títulos é uma forma de suplemento, não de substituição. A criatividade genuína vem da experiência humana.
Finalmente, e esta deveria ser autoexplicativa, nunca uses o ChatGPT para qualquer atividade ilegal.