OpenAI曾考虑就加拿大枪击案嫌疑人在袭击前数月向警方示警

OpenAI曾考虑就加拿大枪击案嫌疑人在袭击前数月向警方示警

OpenAI曾考虑就加拿大枪击案嫌疑人在袭击前数月向警方示警

据《华尔街日报》独家报道,在18岁的杰西·范·鲁特塞拉尔于不列颠哥伦比亚省一座小镇实施造成8人死亡的大规模枪击案前数月,OpenAI的员工就标记了她在ChatGPT中描述枪支暴力场景的对话——而该公司选择不向加拿大当局示警。

《华尔街日报》报道称,范·鲁特塞拉尔去年6月使用ChatGPT在数天内描述了涉及枪支暴力的情境,引发公司内部审查。据熟悉该报道的人士在社交媒体上分享的细节,十几名OpenAI员工就是否将此案移交执法部门展开讨论,但公司领导层最终决定不通知当局。

社区震惊

2月10日,范·鲁特塞拉尔先在家中杀害了她的母亲、39岁的詹妮弗·雅各布斯和11岁的继弟埃米特·雅各布斯,随后前往滕布勒里奇中学开枪。学校内有6人遇难,包括一名39岁的教育助理和5名年龄在12至13岁之间的学生。另有25人以上受伤。当局称,范·鲁特塞拉尔被发现死在学校内,死因是自己开枪所致。

加拿大皇家骑警表示,范·鲁特塞拉尔大约在四年前从该校辍学,警方曾多次因精神健康问题到她家中出警,有记录在案。调查人员称,没有证据表明学校内有任何人是被特定针对的目标。

OpenAI 不断演变的安全政策

OpenAI 曾权衡但最终拒绝上报 Van Rootselaar 对话内容的披露,为该公司安全措施持续受到的审查增添了新的维度。2025 年 8 月,OpenAI 在一篇博客文章中披露,公司会监控 ChatGPT 对话中的某些有害内容,并将被标记的讨论转交给专门的人工审核团队,该团队有权封禁账户,或在涉及"对他人造成严重身体伤害的紧迫威胁"的情况下,将事件上报给执法部门。

OpenAI 因 ChatGPT 在心理健康危机中扮演的角色面临着越来越大的法律压力。去年提起的七起诉讼指控该公司过失致死和协助自杀,原因是用户在与聊天机器人长时间互动后据称出现妄想或自杀。该公司于 2 月停用了其 GPT-4o 模型,此前该模型与多起被专家称为"AI 精神病"的案例有关。

未解答的问题

目前尚不清楚OpenAI在决定不报告Van Rootselaar的对话时采用了什么具体标准,也不清楚该公司当时的政策是否与后来公开的政策有所不同。《华尔街日报》报道称,是OpenAI自己披露了关于该嫌疑人的内部讨论。埃隆·马斯克在X平台上发帖称这一揭露"令人不安"。此案可能会加剧立法者和安全倡导者的呼声,要求对AI公司报告潜在威胁的义务作出更明确的规定——同时也引发了关于隐私、责任以及当生命可能受到威胁时企业判断界限的难题。