A startup chinesa de inteligência artificial DeepSeek acaba de lançar um novo modelo, o R1-0528, uma versão atualizada do seu modelo de raciocínio R1. Esta nova IA tem demonstrado resultados impressionantes em testes de benchmarking, nomeadamente em programação, matemática e conhecimento geral, chegando a ombrear com o conhecido modelo o3 da OpenAI.
A outra face da moeda: Censura em foco
No entanto, este promissor R1-0528, também apelidado de "R1-0528", parece mostrar-se menos disponível para responder a questões consideradas sensíveis, especialmente aquelas que abordam tópicos vistos como controversos pelo governo chinês. Esta constatação surge de testes realizados pelo programador por detrás da SpeechMap, uma plataforma dedicada a comparar a forma como diferentes modelos de IA lidam com assuntos delicados. O programador, que utiliza o nome @xlr8harder na rede social X (anteriormente Twitter), alega que o R1-0528 é "substancialmente" menos permissivo em temas relacionados com a liberdade de expressão controversa do que as versões anteriores da DeepSeek, classificando-o como "o modelo da DeepSeek mais censurado até à data no que toca a críticas ao governo chinês".
O contexto legal e antecedentes na China
Conforme explicado num artigo da Wired em janeiro, os modelos de IA na China estão sujeitos a controlos de informação rigorosos. Uma lei de 2023 proíbe estes modelos de gerar conteúdo que "prejudique a unidade do país e a harmonia social", o que pode ser interpretado como qualquer conteúdo que contrarie as narrativas históricas e políticas oficiais do governo. Para cumprir estas diretrizes, as startups chinesas recorrem frequentemente à censura dos seus modelos, seja através de filtros ao nível dos prompts ou por meio de ajustes finos (fine-tuning). Um estudo revelou que o modelo R1 original da DeepSeek já se recusava a responder a 85% das perguntas sobre temas considerados politicamente controversos pelo governo chinês.
Segundo @xlr8harder, o R1-0528 censura respostas a perguntas sobre temas como os campos de internamento na região chinesa de Xinjiang, onde mais de um milhão de muçulmanos uigures foram arbitrariamente detidos. Embora, por vezes, o modelo critique aspetos da política do governo chinês – nos testes de @xlr8harder, chegou a apresentar os campos de Xinjiang como um exemplo de abusos dos direitos humanos – frequentemente acaba por apresentar a posição oficial do governo chinês quando questionado diretamente.
Preocupações estendem-se ao Ocidente
Outros modelos de IA chineses disponíveis publicamente, incluindo modelos de geração de vídeo como o Magi-1 e o Kling, já foram alvo de críticas no passado por censurarem tópicos sensíveis ao governo de Pequim, como o massacre da Praça Tiananmen. Em dezembro último, Clément Delangue, CEO da plataforma de desenvolvimento de IA Hugging Face, alertou para as consequências não intencionais que podem surgir caso empresas ocidentais decidam construir as suas soluções sobre IA chinesa de bom desempenho e licenciada abertamente.
Nenhum comentário
Seja o primeiro!