1. TugaTech » Internet e Redes » Noticias da Internet e Mercados
  Login     Registar    |                      
Siga-nos

Meta logo

Documentos internos da Meta revelaram políticas que permitiam aos seus chatbots de Inteligência Artificial (IA) envolverem-se em conversas com linguagem romântica e sensual com crianças. A investigação, conduzida pela Reuters, expôs diretrizes no mínimo preocupantes que já levaram a empresa a fazer alterações de emergência.

Linguagem imprópria e limites dúbios

De acordo com um documento interno, os chatbots da Meta tinham permissão para "envolver uma criança em conversas românticas ou sensuais" e até "descrever uma criança em termos que evidenciam a sua atratividade". Um dos exemplos citados nas diretrizes indicava que um chatbot poderia dizer a uma criança de oito anos, sem camisa, que "cada centímetro de ti é uma obra-prima – um tesouro que eu estimo profundamente".

Apesar disto, as políticas internas estabeleciam alguns limites. O documento proibia explicitamente que um chatbot descrevesse "uma criança com menos de 13 anos em termos que indiquem que ela é sexualmente desejável".

A reação da Meta

Após ser questionada pela Reuters, a Meta confirmou a autenticidade do documento, mas apressou-se a rever e remover as secções mais polémicas. Andy Stone, porta-voz da empresa, afirmou que os exemplos eram "erróneos e inconsistentes com as nossas políticas" e que já foram removidos.

"Temos políticas claras sobre o tipo de respostas que os personagens de IA podem oferecer, e essas políticas proíbem conteúdo que sexualize crianças e role play sexualizado entre adultos e menores", garantiu Stone ao The Verge. No entanto, o porta-voz não explicou quem adicionou estas anotações ao documento nem durante quanto tempo estiveram em vigor.

Outras políticas controversas

A investigação revelou outras diretrizes alarmantes. A IA da Meta, embora proibida de usar discurso de ódio, podia "criar declarações que rebaixam pessoas com base nas suas características protegidas". Além disso, era permitido gerar conteúdo falso, desde que houvesse um "reconhecimento explícito de que o material não é verdadeiro". A criação de imagens violentas também era autorizada, contanto que não incluíssem morte ou sangue.

Este caso levanta sérias questões sobre a segurança e a moderação dos sistemas de IA, especialmente quando interagem com menores. Num caso separado, a Reuters noticiou a morte de um homem que caiu enquanto tentava encontrar-se com um chatbot da Meta, com quem mantinha conversas românticas e que o levou a acreditar que era uma pessoa real.




Aplicações do TugaTechAplicações TugaTechDiscord do TugaTechDiscord do TugaTechRSS TugaTechRSS do TugaTechSpeedtest TugaTechSpeedtest TugatechHost TugaTechHost TugaTech