
A criadora do ChatGPT comprometeu-se a reforçar os seus protocolos de segurança e a notificar as autoridades de forma mais célere perante ameaças credíveis. Esta garantia foi dada através de uma carta dirigida às autoridades canadianas, conforme avançado pelo Politico e pelo The Washington Post. A decisão surge após os líderes da empresa terem sido convocados por políticos do país, na sequência de relatos de que a tecnológica não alertou a polícia quando baniu a conta do suspeito de um tiroteio em massa ocorrido em Tumbler Ridge, na Colúmbia Britânica, em 2025.
Alguns executivos da empresa já se reuniram com responsáveis canadianos, e o primeiro-ministro da Colúmbia Britânica, David Eby, referiu que Sam Altman também aceitou um encontro.
O caso que motivou a mudança
Embora as novas regras ainda não tenham sido anunciadas publicamente de forma oficial, Ann O’Leary, vice-presidente de política global da OpenAI, indicou na carta que a empresa vai ajustar os seus sistemas de deteção. O objetivo passa por impedir de forma mais eficaz que utilizadores banidos regressem à plataforma.
No caso específico de 2025, a empresa baniu a conta original do atirador devido a potenciais avisos de violência no mundo real. No entanto, o indivíduo conseguiu criar uma segunda conta, que só foi descoberta pela tecnológica após a divulgação pública do nome do suspeito. Só nesse momento é que as autoridades foram notificadas.
Novas medidas de prevenção e contacto direto
Com as novas diretrizes, a empresa passará a notificar a polícia sempre que detetar ameaças iminentes e credíveis nas conversas do ChatGPT, mesmo que o utilizador não especifique um alvo, os meios ou a data para a violência planeada. Ann O’Leary sublinhou que, se estas regras estivessem em vigor quando a conta do atirador foi banida em 2025, a polícia teria sido informada de imediato. Além disso, será estabelecido um ponto de contacto direto para as forças de segurança canadianas, facilitando a partilha rápida de informações.
O governo do Canadá encara a falta de comunicação inicial como uma falha grave, tendo ameaçado avançar com a regulação dos chatbots de inteligência artificial no país caso as empresas não demonstrem ter salvaguardas adequadas para proteger os cidadãos. Por agora, permanece a dúvida se estas alterações de política serão aplicadas aos Estados Unidos e ao resto do mundo.












Nenhum comentário
Seja o primeiro!