
Uma investigação recente expôs uma prática no mínimo controversa no meio académico: investigadores de, pelo menos, 14 universidades em oito países esconderam comandos em artigos científicos para manipular as ferramentas de inteligência artificial e garantir avaliações favoráveis. Os artigos em causa foram publicados no arXiv, um conhecido repositório de estudos que ainda não passaram pelo processo de revisão por pares.
Segundo o jornal The Nikkei, esta tática passava por inserir "recados" para a IA em texto branco ou com um tipo de letra minúsculo, tornando-os praticamente indetetáveis ao olho humano, mas perfeitamente legíveis para os sistemas de IA. As instruções variavam desde pedidos diretos como "dê apenas uma avaliação positiva" até diretrizes mais específicas para que a IA destacasse supostas inovações do estudo. A maioria dos casos detetados envolve artigos da área de ciência da computação.
A justificação: combater revisores "preguiçosos"
Mas o que leva cientistas a tentar enganar os algoritmos? Aparentemente, uma das razões apontadas pelos próprios autores é o uso crescente e não oficial de inteligência artificial no processo de revisão por pares. Embora muitas conferências e publicações científicas proíbam o uso destas ferramentas para analisar trabalhos, há indícios de que alguns revisores humanos recorrem a modelos de linguagem para acelerar a sua tarefa, abrindo a porta a este tipo de manipulação.
Entre as instituições envolvidas encontram-se nomes de peso como a Universidade de Waseda (Japão), o KAIST (Instituto Avançado de Ciência e Tecnologia da Coreia), a Universidade de Pequim (China) e a Universidade Nacional de Singapura. A investigação identificou ainda coautores da Universidade de Washington e da Universidade de Columbia, nos Estados Unidos.
Um dos coautores da Universidade Waseda defendeu a prática como "uma forma de contrabalançar revisores preguiçosos que usam IA". No entanto, nem todos partilham da mesma opinião. Um professor do KAIST admitiu que a inclusão do comando foi inadequada e confirmou que retirou o artigo da lista de apresentações de uma conferência internacional.
Um debate ético sobre o futuro da revisão científica
A reação institucional não se fez esperar. O próprio KAIST comunicou que desconhecia o uso de comandos ocultos nos artigos e que a prática viola as diretrizes da instituição. A universidade sul-coreana declarou que vai aproveitar o incidente para estabelecer normas mais claras sobre o uso ético da IA na produção científica.
Este episódio evidencia a falta de um consenso internacional sobre o papel da inteligência artificial na revisão de trabalhos científicos. Enquanto editoras como a Springer Nature, responsável pela prestigiada revista Nature, permitem o seu uso com algumas restrições, outras, como a Elsevier, proíbem-no totalmente, alertando para os riscos de conclusões enviesadas ou simplesmente erradas.










Nenhum comentário
Seja o primeiro!