Os sistemas de Inteligência Artificial atualmente existentes ainda estão envoltos em alguma controvérsia, sobretudo na questão de quem será o responsável em situações de incidentes que ocorram devido ao uso dos mesmos.
Por exemplo, no passado, a Tesla já indicou que as tecnologias que fornece no seu veiculo são usadas para ajudar os condutores durante a tarefa de condução, e não como uma forma de substituir os mesmos – e a empresa faz uso de bastante IA para estes sistemas.
No entanto, a Comissão Europeia encontra-se agora a criar algumas regras para estabelecer linhas sobre o que os criadores dos sistemas de IA são ou não responsáveis em caso de necessidade.
Segundo revela a Reuters, a CE vai lançar uma nova diretiva esta semana, criada exatamente para estipular as regras relativamente a quem será o responsável pelo uso de tecnologias de IA e em caso de acidentes resultantes do uso das mesmas, e que se vai aplicar a um vasto conjunto de sistemas.
A diretiva também se encontra centrada para os casos de uso de drones e até de sistemas de recrutamento onde a IA seja usada para seleção. Nas situações onde tal aconteça, quem conteste uma decisão de IA terá também de provar que foi negativamente afetado pelo uso de produtos onde essas tecnologias de IA são usadas.
A medida também vai ter impacto para os fabricantes, que podem ser acusados de negligência em situações como a falta de atualização para sistemas de IA ou a falha na correção de bugs e vulnerabilidades sobre os mesmos, e que acabem por causar danos para terceiros.
De notar que a diretiva ainda necessita de ser aprovada pelos estados membros antes de se tornar uma lei efetiva, e este processo ainda pode demorar algum tempo a ser concluído.
Nenhum comentário
Seja o primeiro!