OpenAI道歉!封禁枪击案嫌疑人账号却未预警,8人遇难引发AI监管反思

OpenAI道歉!封禁枪击案嫌疑人账号却未预警,8人遇难引发AI监管反思

OpenAI CEO Sam Altman 已正式向加拿大不列颠哥伦比亚省的 Tumbler Ridge 小镇致歉。原因是该公司曾封禁一起大规模枪击案嫌疑人的 ChatGPT 账号,但未及时向警方发出预警,最终导致 8 人遇难。这一事件将 AI 平台在风险识别、执法转介未成年人监管方面的短板推至台前。

本周,奥特曼在致 Tumbler Ridge 社区的道歉信中承认,OpenAI 未能更早地将 Jesse Van Rootselaar 的可疑活动通报给执法部门。Van Rootselaar 是今年 2 月该镇一起致命枪击案的主要嫌疑人,该事件共造成 8 人死亡。这封信的落款日期为 4 月 23 日。

去年 6 月,OpenAI 的自动审核系统已标记了 Van Rootselaar 在 ChatGPT 上的多条消息,这些内容描述了暴力场景,并最终导致其账号被封禁。据《华尔街日报》报道,部分内部员工认为这些文字可能指向现实中的暴力风险,曾敦促管理层提醒加拿大警方,但高层最终决定不联系执法机构。

今年 2 月,警方确认 Van Rootselaar 为 Tumbler Ridge 枪击案的嫌疑人。Van Rootselaar 现年 18 岁,是一名跨性别女性。OpenAI 表示,在枪击案发生、嫌疑人姓名公开后,公司发现其还使用过另一个 ChatGPT 账号。

奥特曼在信中重申了此前向 Tumbler Ridge 镇长和不列颠哥伦比亚省省长作出的承诺:OpenAI 将寻找方法,防止类似悲剧重演。他强调,未来的工作重点是与各级政府合作,确保此类事件不再发生。这封道歉信最早由当地社区报纸 Tumbler RidgeLines 刊发。

OpenAI 表示,自枪击案发生以来,公司已强化了安全流程。按照目前升级后的执法转介规则,如果今天发现 Van Rootselaar 的账号,OpenAI 会将其直接提交给执法部门。今年 3 月,加拿大议员透露,奥特曼已同意向 Tumbler Ridge 居民道歉。

不列颠哥伦比亚省省长 David Eby 周三表示,公共安全部门已从警方处获悉,枪击案调查正进入最后阶段。Tumbler Ridge 镇长 Darryl Krakowka 未立即回应置评请求,但他本周早些时候在维多利亚对记者说:“镇上居民仍在悲痛之中。有些人已经开始疗愈,但另一些人还没有。对我来说,这件事仿佛就发生在昨天,但其实已经过去几个月了。”

加拿大负责人工智能事务的部长 Evan Solomon 的代表未回应置评请求。本月,加拿大执政党自由党的全国党员通过了一项不具约束力的决议,呼吁禁止 16 岁以下青少年使用 AI 聊天机器人。Evan Solomon 及其他加拿大高级官员表示,他们正在考虑 AI 监管措施,但尚未作出最终决定。如何在个人隐私与公共利益间保持合理平衡,也考验着 AI 管理者的智慧与良知。

参考资料:
https://www.wsj.com/us-news/law/openai-ceo-apologizes-for-not-flagging-mass-shooting-suspect-to-police-afa53d1d


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/32171

(0)
上一篇 2小时前
下一篇 2小时前

相关推荐

  • 大模型安全评估全景:从对抗攻击到隐私泄露的七大核心数据集深度解析

    随着DeepSeek、Qwen等大型语言模型在金融、医疗、教育等关键领域的广泛应用,其输入输出安全问题已从学术讨论演变为产业实践的紧迫挑战。模型可能被恶意提示诱导生成有害内容,或在交互中意外泄露训练数据中的敏感信息,这些风险不仅威胁用户隐私,更可能引发法律合规问题。作为科技从业者,系统掌握安全评估数据集是构建可靠AI系统的基石。本文将通过600余字的深度分析…

    2025年4月16日
    33800
  • GPT之父Alec Radford颠覆性研究:用Token级「脑部手术」切除大模型危险知识,重学成本暴增7000倍

    Alec Radford,出生于1993年,是人工智能领域具有开创性贡献的研究者。作为GPT、GPT-2和CLIP等里程碑模型的第一作者,并深度参与了GPT-3、GPT-4及PPO算法等关键项目,其工作已获得超过32万次学术引用。 近日,他与Anthropic及斯坦福大学的研究者Neil Rathi联合发表了一项新研究,挑战了当前大模型安全领域的一个核心范式…

    2026年3月1日
    24900
  • AI安全双轨制:Google SAIF与OWASP LLM Top 10的框架对比与协同路径

    随着人工智能技术的快速演进,安全风险已成为制约其规模化应用的关键瓶颈。2023年6月,Google推出安全AI框架(SAIF),旨在为组织提供应对AI风险的全面指南。2024年10月,SAIF迎来重大升级,新增免费的AI风险评估工具,进一步强化其在复杂AI环境中的指导作用。与此同时,OWASP基金会发布的LLM Top 10框架,则聚焦于大型语言模型(LLM…

    2025年3月5日
    31000
  • AI安全攻防进入新纪元:轻量化模型、可解释框架与多模态防御重塑行业格局

    本周,AI安全领域迎来一系列突破性进展,技术创新与攻防博弈呈现前所未有的激烈态势。从轻量化模型的商业化破局到可解释性技术的范式重构,再到多模态防御体系的建立,这些进展不仅展示了AI安全技术的纵深突破,更预示着行业即将迎来结构性变革。本文将深入分析四项关键技术的核心突破、应用前景及面临的挑战,为读者描绘AI安全发展的未来图景。 一、轻量化安全模型的商业化破局:…

    2025年10月20日
    26300
  • Anthropic误杀8100个GitHub库!51万行Claude Code源代码全球裸奔,竟有8000个是“误伤”

    51万行Claude Code源代码意外泄露,Anthropic依据DMCA法规向GitHub发出下架通知,却意外导致超过8000个无关仓库被“误伤”。此外,泄露的代码中还发现了潜在的高危安全漏洞。 一夜之间,Anthropic因源代码泄露事件,向GitHub提交了DMCA(数字千年版权法)下架通知,意图控制局面。然而,这一行动引发了远超预期的连锁反应。 通…

    2026年4月2日
    59700