
A Meta, empresa-mãe do Facebook e Instagram, anunciou que não irá assinar o código de prática da União Europeia para a sua nova Lei da Inteligência Artificial (IA). A decisão surge poucas semanas antes da entrada em vigor das regras do bloco para os fornecedores de modelos de IA de uso geral, marcando um ponto de discórdia significativo entre a gigante tecnológica e os reguladores europeus.
"A Europa está a seguir o caminho errado na IA"
A posição da empresa foi tornada pública por Joel Kaplan, Diretor de Assuntos Globais da Meta, numa publicação no LinkedIn. "Analisámos cuidadosamente o Código de Prática da Comissão Europeia para modelos de IA de uso geral (GPAI) e a Meta não o irá assinar", escreveu Kaplan. "Este Código introduz uma série de incertezas jurídicas para os programadores de modelos, bem como medidas que vão muito além do âmbito da Lei da IA."
Kaplan foi mais longe, acusando a implementação da legislação por parte da UE de ser um "excesso" que irá "estrangular o desenvolvimento e a implementação de modelos de IA de fronteira na Europa, e atrofiar as empresas europeias que procuram construir negócios com base neles".
O que é este código de conduta da UE?
O código de prática da UE é um enquadramento voluntário, publicado no início deste mês, que visa ajudar as empresas a implementar processos e sistemas para cumprir a futura legislação do bloco para a regulação da Inteligência Artificial. Entre os vários pontos, o código exige que as empresas:
Forneçam e atualizem regularmente documentação sobre as suas ferramentas e serviços de IA.
Proíbam os programadores de treinar modelos de IA com conteúdos pirateados.
Respeitem os pedidos dos detentores de conteúdos para não utilizarem as suas obras nos seus conjuntos de dados.
Lei da IA: uma regulação baseada no risco
A Lei da IA da União Europeia é uma regulação baseada nos níveis de risco das aplicações de inteligência artificial. A legislação proíbe totalmente alguns casos de uso considerados de "risco inaceitável", como a manipulação comportamental cognitiva ou a pontuação social (social scoring).
Adicionalmente, as regras definem um conjunto de utilizações de "alto risco", como a biometria e o reconhecimento facial, e em domínios como a educação e o emprego. A lei exige ainda que os programadores registem os seus sistemas de IA e cumpram obrigações de gestão de risco e de qualidade.
Meta não está sozinha na oposição
A resistência da Meta não é um caso isolado. Outras gigantes tecnológicas na linha da frente da corrida da IA, como a Alphabet (Google), a Microsoft e a Mistral AI, têm lutado contra as regras, chegando a instar a Comissão Europeia a adiar a sua implementação. No entanto, a Comissão tem-se mantido firme, afirmando que não irá alterar o seu cronograma.
Na mesma sexta-feira, a UE publicou diretrizes para os fornecedores de modelos de IA, antecipando as regras que entrarão em vigor a 2 de agosto. Estas regras afetarão os fornecedores de "modelos de IA de uso geral com risco sistémico", como a OpenAI, Anthropic, Google e a própria Meta. As empresas que já tenham estes modelos no mercado antes de 2 de agosto terão de cumprir a legislação até 2 de agosto de 2027.