
A Electronic Frontier Foundation (EFF) e o Center for Democracy and Technology (CDT) tomaram uma posição formal num caso judicial que poderá definir o futuro da inteligência artificial e da liberdade de expressão nos Estados Unidos. A questão central é complexa: a resposta gerada por um chatbot é considerada "discurso" e, como tal, está protegida pela Primeira Emenda da Constituição dos EUA?
O caso que pode mudar as regras da IA
A discussão surge no âmbito do processo Garcia v. Character Technologies. O caso foi iniciado após a morte de um adolescente, que alegadamente terá sido causada por interações com um chatbot da empresa Character Technologies. Até ao momento, o processo continua sem uma resolução, mas o juiz responsável já manifestou ceticismo sobre se os resultados de um chatbot podem, de todo, ser considerados "discurso" para efeitos legais.
Num documento legal enviado ao tribunal, a Electronic Frontier Foundation (EFF) e o CDT argumentam que o texto gerado por um chatbot não é a voz de um robô, mas sim um reflexo das escolhas expressivas dos seres humanos por detrás da tecnologia.
A expressão humana por detrás do algoritmo
A EFF clarifica que estas "escolhas" humanas acontecem em vários níveis. Por um lado, referem-se às decisões tomadas pelos programadores durante a fase de treino da IA, conhecida como aprendizagem por reforço, onde dão feedback positivo ou negativo às respostas do sistema para o moldar. Por outro lado, as próprias interações do utilizador, como a forma como escreve os seus pedidos (prompts), influenciam diretamente o resultado final gerado pelo chatbot.
É crucial entender que a organização não defende que os chatbots devam ter direitos. O argumento é que a tecnologia serve como um canal para a expressão humana e que é essa expressão que deve ser protegida pela Primeira Emenda. Adicionalmente, o direito do utilizador a receber informação é também um direito constitucionalmente protegido.

Os riscos de uma regulação sem limites
O alerta deixado pela EFF é claro: se as respostas dos chatbots não tiverem qualquer proteção legal, o governo dos EUA poderia, potencialmente, proibir sistemas de IA que expressem pontos de vista com os quais não concorda.
A organização reconhece que os danos causados por chatbots podem e devem ser regulados. No entanto, sublinha que essa regulação deve ser cuidadosamente desenhada para não sobrecarregar indevidamente o direito à liberdade de expressão.
Esta intervenção surge num momento crítico, enquanto a inteligência artificial é ainda uma tecnologia nascente. O objetivo é ajudar o tribunal a compreender o funcionamento da tecnologia de uma perspetiva legal, garantindo que a legislação futura adote uma visão equilibrada e justa sobre as complexas questões levantadas pela IA.










Nenhum comentário
Seja o primeiro!