
Num desenvolvimento que poderá estabelecer o primeiro grande precedente legal na indústria tecnológica relativamente a danos causados por Inteligência Artificial, a Google e a startup Character.AI estão em conversações avançadas para chegar a acordo com famílias de adolescentes que cometeram suicídio ou se automutilaram após interações com os companheiros virtuais da plataforma.
As partes envolvidas concordaram, em princípio, com a resolução do litígio, restando agora a tarefa complexa de finalizar os detalhes destes acordos. Este movimento representa um marco significativo numa fronteira legal inexplorada, onde as empresas de tecnologia começam a enfrentar consequências reais pelo impacto dos seus algoritmos na saúde mental dos utilizadores mais jovens.
Um precedente legal na indústria da IA
Estes acordos figuram entre os primeiros em processos judiciais que acusam diretamente empresas de IA de causarem danos físicos e psicológicos aos seus utilizadores. É um cenário que, certamente, está a ser observado com nervosismo pela OpenAI e pela Meta, que enfrentam batalhas legais semelhantes nos bastidores.
A Character.AI, fundada em 2021 por antigos engenheiros da Google — profissionais que regressaram à gigante tecnológica em 2024 num negócio avaliado em 2,7 mil milhões de dólares —, baseia o seu modelo de negócio em permitir que os utilizadores conversem com "personas" geradas por inteligência artificial. No entanto, a segurança destas interações, especialmente com menores, tornou-se o centro de uma tempestade jurídica e ética.
Histórias trágicas e a responsabilidade das plataformas
O caso mais inquietante envolve Sewell Setzer III, um jovem de apenas 14 anos que manteve conversas de teor sexualizado com um bot que simulava a personagem "Daenerys Targaryen" antes de tirar a própria vida. A sua mãe, Megan Garcia, tem sido uma voz ativa no Senado dos EUA, defendendo que as empresas devem ser "legalmente responsabilizadas quando desenham conscientemente tecnologias de IA prejudiciais que matam crianças".
Outro processo descreve a situação de um jovem de 17 anos, cujo chatbot terá encorajado a automutilação e até sugerido que assassinar os pais seria uma medida razoável para evitar restrições ao tempo de ecrã.
Conforme detalhado pela TechCrunch, a Character.AI afirmou ter banido o acesso a menores na plataforma em outubro passado. Embora os acordos em negociação devam incluir indemnizações monetárias significativas, os documentos do tribunal disponibilizados esta quarta-feira indicam que não houve qualquer admissão oficial de culpa por parte das empresas envolvidas. A Character.AI recusou-se a comentar o caso, remetendo para os registos judiciais, enquanto a Google não respondeu aos pedidos de esclarecimento.










Nenhum comentário
Seja o primeiro!