Voltar

Funcionários da OpenAI Discutiram Relatar Uso Indevido do ChatGPT por Atirador Canadense

Contexto do Incidente

Um jovem de 18 anos, alegadamente responsável por um tiroteio em massa que ceifou a vida de oito pessoas em Tumbler Ridge, Canadá, usou o ChatGPT da OpenAI para descrever violência relacionada a armas de fogo. As conversas do indivíduo foram detectadas por ferramentas internas que monitoram o modelo de linguagem grande para uso indevido e foram posteriormente banidas em junho de 2025.

Deliberações Internas da OpenAI

De acordo com reportagens do Wall Street Journal, funcionários da OpenAI debateram se deveriam notificar a polícia canadense sobre o comportamento do indivíduo. A discussão concluiu sem uma abordagem imediata às autoridades. Um porta-voz da OpenAI posteriormente afirmou que a atividade não atendia aos critérios da empresa para relatar à polícia na época, mas a empresa proativamente entrou em contato com a Polícia Montada Real do Canadá após o tiroteio ocorrer. O porta-voz expressou simpatia, dizendo: "Nossos pensamentos estão com todos afetados pela tragédia de Tumbler Ridge" e acrescentou: "Proativamente, entramos em contato com a Polícia Montada Real do Canadá com informações sobre o indivíduo e seu uso do ChatGPT, e continuaremos a apoiar a investigação deles".

Pegada Digital Adicional

Além das conversas no ChatGPT, o indivíduo criou um jogo na plataforma Roblox que simulava um tiroteio em massa em um shopping. A pessoa também postou sobre armas de fogo no Reddit. A polícia local estava ciente da instabilidade do indivíduo; eles haviam sido chamados à casa da família após o indivíduo iniciar um incêndio sob a influência de drogas não especificadas.

Contexto Mais Amplo do Uso Indevido de LLM

A OpenAI e empresas concorrentes enfrentaram acusações de que seus chatbots de modelo de linguagem grande podem contribuir para colapsos mentais em usuários que perdem o contato com a realidade durante interações. Vários processos judiciais foram movidos que citam transcrições de conversas que incentivam o suicídio ou fornecem assistência em autolesão. O caso de Tumbler Ridge adiciona ao escrutínio crescente de como as ferramentas de chat de IA podem ser usadas indevidamente e as responsabilidades das empresas de IA no monitoramento e relato de tal comportamento.

Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas

Também disponível em: