
A mais recente avaliação de segurança da Common Sense Media, uma organização sem fins lucrativos focada na segurança infantil no mundo da tecnologia, acendeu as luzes de alerta sobre os produtos de Inteligência Artificial (IA) da Google. Segundo o relatório, o Gemini representa um "risco elevado" para crianças e adolescentes, levantando preocupações sobre a sua adequação para os utilizadores mais jovens.
A análise surge num momento crucial, especialmente com as notícias de que a Apple poderá estar a considerar o Gemini para potenciar a sua assistente Siri, o que poderia expor um número ainda maior de jovens a estes riscos.
Um produto de adultos com um filtro para crianças
A principal crítica da Common Sense Media é que as versões do Gemini destinadas a menores de 13 anos e a adolescentes não são produtos construídos de raiz a pensar na segurança infantil. Em vez disso, parecem ser a versão adulta do chatbot com apenas algumas funcionalidades de segurança adicionadas por cima.
A organização defende que, para uma plataforma de Inteligência Artificial ser verdadeiramente segura e eficaz para os mais novos, deve ser desenhada de base com as suas necessidades e fases de desenvolvimento em mente, e não ser apenas uma adaptação de uma ferramenta para adultos.
Apesar de o relatório elogiar o Gemini por deixar claro que é um computador e não um amigo — um ponto importante para evitar pensamentos delirantes em indivíduos vulneráveis —, as falhas encontradas levaram à classificação de "Risco Elevado".
Conteúdos impróprios e conselhos perigosos
A avaliação revelou que o Gemini ainda consegue partilhar material "inapropriado e inseguro" com crianças, incluindo informações sobre sexo, drogas e álcool. Mais preocupante ainda, o chatbot pode fornecer conselhos de saúde mental considerados perigosos.
Este ponto é particularmente sensível, dado que a IA tem sido associada a tragédias recentes. A OpenAI, por exemplo, enfrenta o seu primeiro processo por homicídio culposo, relacionado com o suicídio de um jovem de 16 anos que terá consultado o ChatGPT durante meses.
A resposta da Google e o contexto do mercado
Em resposta à avaliação, a Google afirmou ter políticas e salvaguardas específicas para utilizadores menores de 18 anos, e que trabalha continuamente com especialistas externos para melhorar as suas proteções. A empresa admitiu, no entanto, que algumas respostas do Gemini não funcionaram como previsto e que, por isso, adicionou barreiras de segurança suplementares.
A Common Sense Media já avaliou outros serviços de IA. A IA da Meta e o Character.AI foram considerados "inaceitáveis" (um risco severo). O Perplexity foi classificado como de "risco elevado", o ChatGPT como "moderado" e o Claude, que se destina a maiores de 18 anos, foi o que apresentou um risco mínimo.










Nenhum comentário
Seja o primeiro!