
A Inteligência Artificial generativa tem vindo a demonstrar ser uma ferramenta poderosa, mas a sua fiabilidade continua a ser um ponto de discórdia, especialmente quando utilizada em situações críticas de segurança pública. Num caso insólito que está a gerar forte polémica no Reino Unido, a polícia admitiu ter utilizado o Microsoft Copilot para planear a segurança de um jogo de futebol, resultando numa decisão baseada em factos que nunca ocorreram.
A dependência excessiva desta tecnologia, que a gigante de Redmond tem vindo a integrar de forma cada vez mais profunda no Windows 11, levou as autoridades a proibir a entrada de adeptos do Maccabi Tel Aviv num jogo da UEFA Europa League contra o Aston Villa. A justificação para esta medida drástica baseou-se inteiramente numa "alucinação" da IA.
O jogo fantasma que ditou a segurança
De acordo com Craig Guildford, chefe da polícia de West Midlands, a ferramenta de IA forneceu informações detalhadas sobre confrontos violentos num suposto jogo anterior entre o Maccabi Tel Aviv e o West Ham United. O problema é que essa partida nunca aconteceu na realidade.
O chatbot inventou um cenário de violência entre as claques destas duas equipas, levando os agentes a classificar o encontro real contra o Aston Villa como sendo de "alto risco". Sem qualquer verificação humana prévia ou cruzamento de dados com registos oficiais, a polícia seguiu a recomendação implícita na avaliação de risco gerada pela IA e impediu a presença da claque israelita no estádio.
De "pesquisa no Google" a erro de IA
O caso ganhou contornos políticos e públicos graves, chegando a ser alvo de críticas por parte do primeiro-ministro britânico, Keir Starmer. A situação agravou-se quando, inicialmente, Guildford informou o Parlamento de que a avaliação de risco tinha sido realizada através de simples pesquisas no Google.
No entanto, em desenvolvimentos mais recentes, o chefe da polícia viu-se obrigado a corrigir a sua declaração. Numa carta enviada aos parlamentares, conforme reportado pelo Business Insider, Guildford pediu desculpa e esclareceu que não houve intenção de induzir em erro, admitindo que a fonte da informação falsa foi, de facto, a ferramenta de inteligência artificial da Microsoft, utilizada sem a devida supervisão.
Este episódio serve como um alerta sério para as autoridades e governos sobre a integração de ferramentas de IA em processos de tomada de decisão sensíveis. A ausência de validação humana transformou uma alucinação digital numa medida policial real, com impacto direto nos adeptos e na ordem pública. Até ao momento, a Microsoft não emitiu qualquer comentário oficial sobre o incidente.