Familiares de vítimas do trágico massacre em Tumbler Ridge, na Colúmbia Britânica, entraram com um processo contra a OpenAI, responsável pelo ChatGPT. O incidente, ocorrido em fevereiro de 2026, resultou na morte de oito pessoas, incluindo crianças, por uma atiradora que cometeu suicídio após o ataque. De acordo com os relatos, a OpenAI teria identificado a atiradora, Jesse Van Rootselaar, como uma ameaça potencial meses antes do ataque, mas não teria alertado as autoridades competentes. Em uma carta aberta, o CEO da OpenAI, Sam Altman, expressou seu arrependimento pela falha em sinalizar a conta da atiradora às autoridades. Os familiares alegam que a empresa não reportou a ameaça porque isso poderia expor conversas sobre violência em sua plataforma e prejudicar os planos de uma oferta pública inicial. A OpenAI, por sua vez, afirmou que considera o tiroteio uma tragédia e que implementou políticas mais rigorosas para detectar e prevenir situações de risco. No entanto, a situação levantou questões sérias sobre a responsabilidade das empresas de inteligência artificial em eventos violentos. Os processos buscam uma compensação financeira e exigem que a OpenAI reformule suas práticas de segurança. Essa ação é parte de uma crescente onda de processos contra empresas de IA, acusadas de não prevenir interações que levam a atos de violência e automutilação. O papel da inteligência artificial na facilitação de comportamentos prejudiciais está sendo colocado em cheque, enquanto as vítimas e seus familiares buscam justiça e mudanças nas políticas dessas empresas.
Fonte: G1







