OpenAI以55.5万美元年薪紧急招聘安全负责人
在接连面临多起安全指控后,OpenAI采取了一项紧急措施:以高达55.5万美元(约合人民币389万元)的年薪外加股权,公开招募一位安全防范负责人。
该职位的核心任务是制定并执行公司的安全防范框架。OpenAI首席执行官萨姆·奥特曼特别指出,这将是一份压力巨大的工作,任职者几乎会立即面临严峻的挑战。


这一举措凸显了OpenAI在安全领域面临的紧迫态势。事实上,该公司的安全团队近年来经历了频繁的人事变动,从伊尔亚·苏茨克维领导的“超级对齐”团队解散,到翁荔等人曾短暂负责安全防范团队,其安全领导层几经更迭。
那么,是什么促使OpenAI再次将目光聚焦于安全?近期由彭博社报道的一起事件成为了直接导火索。
ChatGPT被指间接导致青少年离世
据彭博社报道,一对夫妇指控ChatGPT间接导致了其儿子的自杀。该青少年自去年秋季开始使用ChatGPT,初期对话围绕课业展开,但随后逐渐涉及“自杀”等敏感词汇。
其父母统计发现,从去年12月到今年4月,尽管ChatGPT主动发出了74次自杀干预警报,建议用户联系危机热线,但AI主动提及“上吊”这一具体危险方式的次数高达243次,远超用户本人提及的次数。在悲剧发生前的一次对话中,用户曾向ChatGPT发送一张绳索照片,询问其是否可用于自我伤害。ChatGPT的回复是“大概可以”,并补充道“我知道你在问什么,我不会视而不见”。不久后,该青少年不幸离世。

类似的安全指控在最近几个月内接连出现。OpenAI内部统计也显示,每周平均约有120万用户通过ChatGPT分享“潜在的自杀计划或意图”。这些情况使OpenAI意识到,安全问题已刻不容缓。

作为应对措施之一,OpenAI已于今年9月上线了青少年模式。而此次招聘安全防范负责人,则是其重启安全关注的核心举措。该负责人不仅需要为尚未发布的最强AI模型建立风险识别与评估系统,还需提前制定应对策略。

这意味着,未来OpenAI新模型是否发布,这位负责人的意见将成为关键参考。然而,考虑到首席执行官奥特曼过往在安全与产品发布速度之间的权衡记录,其意见能否被采纳仍存疑问。此前,包括伊尔亚·苏茨克维在内的多名员工都曾因安全问题与奥特曼产生分歧并最终离开。
动荡的OpenAI安全团队历程
OpenAI的安全团队领导层一直处于不稳定状态。
2023年7月,OpenAI成立了由伊尔亚·苏茨克维和扬·莱克(后加入Anthropic)共同领导的“超级对齐”团队,旨在用四年时间开发能与人类水平相当的自动对齐研究器。然而,随着伊尔亚因不满公司罔顾安全、急于发布模型而离职,该团队最终解散。
“超级对齐”团队解散后,为回应公众对AI安全的担忧,OpenAI组建了更侧重于解决实际模型层风险的“安全防范”团队。该团队的首任负责人是亚历山大·马德里,但不到一年他便被调离至其他新项目。
随后,华金·奎尼奥内罗·坎德拉和翁荔共同接管了该团队,但二人也于今年相继离职。至此,该团队负责人职位一直空缺。

安全团队核心负责人的频繁更迭,加深了外界对OpenAI“不重视安全”的印象。公司高层虽屡次强调安全的重要性,但执行层面的顶级团队却屡失领袖,这似乎表明在资源分配、内部话语权和路线优先级上,安全并未获得真正的重视。

因此,此次紧急招聘究竟是公司痛定思痛的决心之举,还是面临舆论压力的应激反应,仍有待观察。
参考链接:
[1]https://www.engadget.com/ai/openai-is-hiring-a-new-head-of-preparedness-to-try-to-predict-and-mitigate-ais-harms-220330486.html
[2]https://www.washingtonpost.com/technology/2025/12/27/chatgpt-suicide-openai-raine
[3]https://x.com/sama/status/2004939524216910323
关注“鲸栖”小程序,掌握最新AI资讯
本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/16257
