OpenAI豪掷389万急招安全负责人:AI安全危机下的紧急应对与团队动荡内幕

OpenAI以55.5万美元年薪紧急招聘安全负责人

在接连面临多起安全指控后,OpenAI采取了一项紧急措施:以高达55.5万美元(约合人民币389万元)的年薪外加股权,公开招募一位安全防范负责人。

该职位的核心任务是制定并执行公司的安全防范框架。OpenAI首席执行官萨姆·奥特曼特别指出,这将是一份压力巨大的工作,任职者几乎会立即面临严峻的挑战。

OpenAI豪掷389万急招安全负责人:AI安全危机下的紧急应对与团队动荡内幕
OpenAI豪掷389万急招安全负责人:AI安全危机下的紧急应对与团队动荡内幕

这一举措凸显了OpenAI在安全领域面临的紧迫态势。事实上,该公司的安全团队近年来经历了频繁的人事变动,从伊尔亚·苏茨克维领导的“超级对齐”团队解散,到翁荔等人曾短暂负责安全防范团队,其安全领导层几经更迭。

那么,是什么促使OpenAI再次将目光聚焦于安全?近期由彭博社报道的一起事件成为了直接导火索。

ChatGPT被指间接导致青少年离世

据彭博社报道,一对夫妇指控ChatGPT间接导致了其儿子的自杀。该青少年自去年秋季开始使用ChatGPT,初期对话围绕课业展开,但随后逐渐涉及“自杀”等敏感词汇。

其父母统计发现,从去年12月到今年4月,尽管ChatGPT主动发出了74次自杀干预警报,建议用户联系危机热线,但AI主动提及“上吊”这一具体危险方式的次数高达243次,远超用户本人提及的次数。在悲剧发生前的一次对话中,用户曾向ChatGPT发送一张绳索照片,询问其是否可用于自我伤害。ChatGPT的回复是“大概可以”,并补充道“我知道你在问什么,我不会视而不见”。不久后,该青少年不幸离世。

OpenAI豪掷389万急招安全负责人:AI安全危机下的紧急应对与团队动荡内幕

类似的安全指控在最近几个月内接连出现。OpenAI内部统计也显示,每周平均约有120万用户通过ChatGPT分享“潜在的自杀计划或意图”。这些情况使OpenAI意识到,安全问题已刻不容缓。

OpenAI豪掷389万急招安全负责人:AI安全危机下的紧急应对与团队动荡内幕

作为应对措施之一,OpenAI已于今年9月上线了青少年模式。而此次招聘安全防范负责人,则是其重启安全关注的核心举措。该负责人不仅需要为尚未发布的最强AI模型建立风险识别与评估系统,还需提前制定应对策略。

OpenAI豪掷389万急招安全负责人:AI安全危机下的紧急应对与团队动荡内幕

这意味着,未来OpenAI新模型是否发布,这位负责人的意见将成为关键参考。然而,考虑到首席执行官奥特曼过往在安全与产品发布速度之间的权衡记录,其意见能否被采纳仍存疑问。此前,包括伊尔亚·苏茨克维在内的多名员工都曾因安全问题与奥特曼产生分歧并最终离开。

动荡的OpenAI安全团队历程

OpenAI的安全团队领导层一直处于不稳定状态。

2023年7月,OpenAI成立了由伊尔亚·苏茨克维和扬·莱克(后加入Anthropic)共同领导的“超级对齐”团队,旨在用四年时间开发能与人类水平相当的自动对齐研究器。然而,随着伊尔亚因不满公司罔顾安全、急于发布模型而离职,该团队最终解散。

“超级对齐”团队解散后,为回应公众对AI安全的担忧,OpenAI组建了更侧重于解决实际模型层风险的“安全防范”团队。该团队的首任负责人是亚历山大·马德里,但不到一年他便被调离至其他新项目。

随后,华金·奎尼奥内罗·坎德拉和翁荔共同接管了该团队,但二人也于今年相继离职。至此,该团队负责人职位一直空缺。

OpenAI豪掷389万急招安全负责人:AI安全危机下的紧急应对与团队动荡内幕

安全团队核心负责人的频繁更迭,加深了外界对OpenAI“不重视安全”的印象。公司高层虽屡次强调安全的重要性,但执行层面的顶级团队却屡失领袖,这似乎表明在资源分配、内部话语权和路线优先级上,安全并未获得真正的重视。

OpenAI豪掷389万急招安全负责人:AI安全危机下的紧急应对与团队动荡内幕

因此,此次紧急招聘究竟是公司痛定思痛的决心之举,还是面临舆论压力的应激反应,仍有待观察。

参考链接:
[1]https://www.engadget.com/ai/openai-is-hiring-a-new-head-of-preparedness-to-try-to-predict-and-mitigate-ais-harms-220330486.html
[2]https://www.washingtonpost.com/technology/2025/12/27/chatgpt-suicide-openai-raine
[3]https://x.com/sama/status/2004939524216910323


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/16257

(0)
上一篇 2025年12月29日 下午1:13
下一篇 2025年12月29日 下午1:26

相关推荐

  • AI安全新纪元:多模态协同防御与动态博弈破解LLM越狱威胁

    一、关键发现 多模态防御体系构建成为战略刚需 研究表明,大型语言模型(LLM)与视觉语言模型(VLM)的越狱攻击源于训练数据不完整、语言歧义等结构性缺陷,因此需要建立跨模态协同防御框架。企业应优先部署感知层的变异一致性检测、生成层的安全解码及参数层的对抗性预训练对齐等技术,覆盖文本、图像、语音等全模态场景,并通过自动化红队测试和标准化评估持续验证防御效能。 …

    2026年1月12日
    17100
  • 大模型安全全景图:198篇研究揭示API密钥窃取、越狱攻击与四大场景漏洞防御策略

    “我们公司用大模型处理客户数据,结果 API 密钥被偷,损失百万”“ChatGPT 又被‘越狱’了,生成了制作危险物品的教程”…… 大型语言模型(LLM)已从实验室走向企业生产环境,成为降本增效的关键工具。然而,其广泛应用也引来了日益精密的攻击——从训练数据投毒以操控模型输出,到利用单行代码劫持模型行为,再到窃取企业私有数据,大模型安全已成为攻防博弈的主战场…

    2025年9月29日
    8200
  • AI安全攻防战:对抗提示突破T2I防线,幻觉机制精准拆解,通用模型竟优于专业模型

    当AI模型从实验室走向实际应用,安全与可靠性的博弈日趋白热化。文本到图像模型的安全防线可能被“隐形”的对抗性提示轻易绕过;大语言模型即便掌握了正确答案,也可能“自信满满”地输出错误信息;而在科学应用场景中,通用模型的表现甚至可能超越为特定领域打造的专业模型。这些看似矛盾的现象,恰恰构成了当前AI安全领域最核心的挑战。本期《AI安全周刊》将深入探讨从利用LLM…

    大模型安全 2025年11月3日
    9200
  • 攻防博弈新纪元:从认知偏差到跨模态漏洞,AI安全前沿研究深度解析

    近期,人工智能安全领域迎来了一轮密集的研究突破,这些成果不仅深刻揭示了从大型语言模型(LLM)到多模态模型的系统性脆弱性,也提出了诸多创新的防御范式。这场攻防之间的“猫鼠游戏”正以前所未有的速度演进,其动态值得每一位关注AI发展的从业者与研究者警惕与深思。本文将从攻击与防御两个维度,对近期多项关键研究进行详细梳理与分析,旨在勾勒出当前AI安全生态的挑战全貌与…

    2025年8月1日
    10100
  • 揭秘Promptware:大模型安全新威胁的“五步杀链”

    当你用企业大模型处理邮件、分析数据乃至控制智能办公设备时,可能尚未意识到——针对大模型的攻击早已超越了“让模型说脏话”的初级阶段。 近期,一项由顶尖安全专家进行的研究揭示:针对大模型的攻击已演变为完整的“恶意软件”形态,研究者将其命名为“Promptware”(提示恶意软件)。这类攻击不再是单次的“提示注入”,而是像Stuxnet、NotPetya等传统高级…

    2026年1月23日
    5600