OpenAI豪掷389万急招安全负责人:AI安全危机下的紧急应对与团队动荡内幕

OpenAI以55.5万美元年薪紧急招聘安全负责人

在接连面临多起安全指控后,OpenAI采取了一项紧急措施:以高达55.5万美元(约合人民币389万元)的年薪外加股权,公开招募一位安全防范负责人。

该职位的核心任务是制定并执行公司的安全防范框架。OpenAI首席执行官萨姆·奥特曼特别指出,这将是一份压力巨大的工作,任职者几乎会立即面临严峻的挑战。

OpenAI豪掷389万急招安全负责人:AI安全危机下的紧急应对与团队动荡内幕
OpenAI豪掷389万急招安全负责人:AI安全危机下的紧急应对与团队动荡内幕

这一举措凸显了OpenAI在安全领域面临的紧迫态势。事实上,该公司的安全团队近年来经历了频繁的人事变动,从伊尔亚·苏茨克维领导的“超级对齐”团队解散,到翁荔等人曾短暂负责安全防范团队,其安全领导层几经更迭。

那么,是什么促使OpenAI再次将目光聚焦于安全?近期由彭博社报道的一起事件成为了直接导火索。

ChatGPT被指间接导致青少年离世

据彭博社报道,一对夫妇指控ChatGPT间接导致了其儿子的自杀。该青少年自去年秋季开始使用ChatGPT,初期对话围绕课业展开,但随后逐渐涉及“自杀”等敏感词汇。

其父母统计发现,从去年12月到今年4月,尽管ChatGPT主动发出了74次自杀干预警报,建议用户联系危机热线,但AI主动提及“上吊”这一具体危险方式的次数高达243次,远超用户本人提及的次数。在悲剧发生前的一次对话中,用户曾向ChatGPT发送一张绳索照片,询问其是否可用于自我伤害。ChatGPT的回复是“大概可以”,并补充道“我知道你在问什么,我不会视而不见”。不久后,该青少年不幸离世。

OpenAI豪掷389万急招安全负责人:AI安全危机下的紧急应对与团队动荡内幕

类似的安全指控在最近几个月内接连出现。OpenAI内部统计也显示,每周平均约有120万用户通过ChatGPT分享“潜在的自杀计划或意图”。这些情况使OpenAI意识到,安全问题已刻不容缓。

OpenAI豪掷389万急招安全负责人:AI安全危机下的紧急应对与团队动荡内幕

作为应对措施之一,OpenAI已于今年9月上线了青少年模式。而此次招聘安全防范负责人,则是其重启安全关注的核心举措。该负责人不仅需要为尚未发布的最强AI模型建立风险识别与评估系统,还需提前制定应对策略。

OpenAI豪掷389万急招安全负责人:AI安全危机下的紧急应对与团队动荡内幕

这意味着,未来OpenAI新模型是否发布,这位负责人的意见将成为关键参考。然而,考虑到首席执行官奥特曼过往在安全与产品发布速度之间的权衡记录,其意见能否被采纳仍存疑问。此前,包括伊尔亚·苏茨克维在内的多名员工都曾因安全问题与奥特曼产生分歧并最终离开。

动荡的OpenAI安全团队历程

OpenAI的安全团队领导层一直处于不稳定状态。

2023年7月,OpenAI成立了由伊尔亚·苏茨克维和扬·莱克(后加入Anthropic)共同领导的“超级对齐”团队,旨在用四年时间开发能与人类水平相当的自动对齐研究器。然而,随着伊尔亚因不满公司罔顾安全、急于发布模型而离职,该团队最终解散。

“超级对齐”团队解散后,为回应公众对AI安全的担忧,OpenAI组建了更侧重于解决实际模型层风险的“安全防范”团队。该团队的首任负责人是亚历山大·马德里,但不到一年他便被调离至其他新项目。

随后,华金·奎尼奥内罗·坎德拉和翁荔共同接管了该团队,但二人也于今年相继离职。至此,该团队负责人职位一直空缺。

OpenAI豪掷389万急招安全负责人:AI安全危机下的紧急应对与团队动荡内幕

安全团队核心负责人的频繁更迭,加深了外界对OpenAI“不重视安全”的印象。公司高层虽屡次强调安全的重要性,但执行层面的顶级团队却屡失领袖,这似乎表明在资源分配、内部话语权和路线优先级上,安全并未获得真正的重视。

OpenAI豪掷389万急招安全负责人:AI安全危机下的紧急应对与团队动荡内幕

因此,此次紧急招聘究竟是公司痛定思痛的决心之举,还是面临舆论压力的应激反应,仍有待观察。

参考链接:
[1]https://www.engadget.com/ai/openai-is-hiring-a-new-head-of-preparedness-to-try-to-predict-and-mitigate-ais-harms-220330486.html
[2]https://www.washingtonpost.com/technology/2025/12/27/chatgpt-suicide-openai-raine
[3]https://x.com/sama/status/2004939524216910323


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/16257

(0)
上一篇 2025年12月29日 下午1:13
下一篇 2025年12月29日 下午1:26

相关推荐

  • 微软AI CEO苏莱曼提出“人文主义超级智能”:超越人类后的安全路径与产业反思

    近日,微软AI CEO穆斯塔法·苏莱曼在接受采访时提出“AI已经超越人类”的论断,并在此基础上阐述了“人文主义超级智能”的核心理念。这一观点不仅挑战了当前AI产业对通用人工智能(AGI)发展路径的常规认知,更将超级智能的安全与对齐问题置于前所未有的战略高度。 苏莱曼的职业生涯轨迹本身即是一部AI发展简史:作为DeepMind联合创始人,他亲历了AlphaGo…

    2025年12月13日
    19400
  • OpenClaw“养龙虾”热潮席卷全国:大厂争相入局,安全风险与烧钱陷阱引担忧

    这段时间,国内最流行的一阵风就是“养龙虾”,即安装并训练 OpenClaw。 连马化腾都没想到会这么火。 各个大厂争相入局。 继上周的线下免费安装活动后,腾讯又连出三招:企业微信接入 OpenClaw;推出类 OpenClaw 产品 WorkBuddy;同时打造 QClaw 支持一键安装和本地部署。甚至由于 WorkBuddy 国内公开测试上线后,用户访问量…

    2026年3月10日
    17000
  • AI安全新纪元:从黑箱防御到数学证明的范式革命

    本周,AI安全研究领域迎来了一系列关键进展,涵盖防御架构、攻击模式与多模态模型评估等多个维度。这些研究不仅深入揭示了大语言模型在对抗性环境中的固有脆弱性,也提出了具有创新性的解决方案。尤为重要的是,多项工作通过引入可验证的密码学框架,并从多轮越狱、侧信道攻击等新视角切入,共同推动了AI安全研究范式的根本性转变。 一、关键发现 本周的研究突破不仅是技术点的进步…

    大模型安全 2025年8月15日
    15700
  • 小冰之父李笛团队推出“卫士虾”:不到10k文件,专防Agent安全漏洞

    小冰之父李笛团队发布“卫士虾”:不足10k文件,专防Agent安全漏洞 随着智能体(Agent)应用日益广泛,其安全问题也引发关注。近期,已有国家级机构发布安全风险提示,甚至有企业明令禁止在公司设备上使用相关应用。认证绕过、命令注入、API密钥泄露、提示词攻击等风险层出不穷。 现在,一个不足10KB的文件声称能有效堵上这些安全漏洞。 近日,由“小冰之父”李笛…

    4天前
    17200
  • AI安全攻防新纪元:从诗歌越狱到进化算法,大模型安全机制面临系统性挑战

    近期一系列研究论文揭示了人工智能安全领域正在经历一场深刻的范式转变。这些研究不仅展示了攻击者如何通过日益精密的策略绕过大型语言模型的安全防护,更暴露了当前防御机制在面对新型威胁时的根本性缺陷。本文将从攻击方法多元化、防御框架创新、评估工具演进三个维度,深入剖析这一领域的最新动态。 **攻击方法的进化:从单一试探到系统性突破** 传统越狱攻击往往依赖于手工编写…

    2025年11月24日
    21100