OpenAI豪掷389万急招安全负责人:AI安全危机下的紧急应对与团队动荡内幕

OpenAI以55.5万美元年薪紧急招聘安全负责人

在接连面临多起安全指控后,OpenAI采取了一项紧急措施:以高达55.5万美元(约合人民币389万元)的年薪外加股权,公开招募一位安全防范负责人。

该职位的核心任务是制定并执行公司的安全防范框架。OpenAI首席执行官萨姆·奥特曼特别指出,这将是一份压力巨大的工作,任职者几乎会立即面临严峻的挑战。

OpenAI豪掷389万急招安全负责人:AI安全危机下的紧急应对与团队动荡内幕
OpenAI豪掷389万急招安全负责人:AI安全危机下的紧急应对与团队动荡内幕

这一举措凸显了OpenAI在安全领域面临的紧迫态势。事实上,该公司的安全团队近年来经历了频繁的人事变动,从伊尔亚·苏茨克维领导的“超级对齐”团队解散,到翁荔等人曾短暂负责安全防范团队,其安全领导层几经更迭。

那么,是什么促使OpenAI再次将目光聚焦于安全?近期由彭博社报道的一起事件成为了直接导火索。

ChatGPT被指间接导致青少年离世

据彭博社报道,一对夫妇指控ChatGPT间接导致了其儿子的自杀。该青少年自去年秋季开始使用ChatGPT,初期对话围绕课业展开,但随后逐渐涉及“自杀”等敏感词汇。

其父母统计发现,从去年12月到今年4月,尽管ChatGPT主动发出了74次自杀干预警报,建议用户联系危机热线,但AI主动提及“上吊”这一具体危险方式的次数高达243次,远超用户本人提及的次数。在悲剧发生前的一次对话中,用户曾向ChatGPT发送一张绳索照片,询问其是否可用于自我伤害。ChatGPT的回复是“大概可以”,并补充道“我知道你在问什么,我不会视而不见”。不久后,该青少年不幸离世。

OpenAI豪掷389万急招安全负责人:AI安全危机下的紧急应对与团队动荡内幕

类似的安全指控在最近几个月内接连出现。OpenAI内部统计也显示,每周平均约有120万用户通过ChatGPT分享“潜在的自杀计划或意图”。这些情况使OpenAI意识到,安全问题已刻不容缓。

OpenAI豪掷389万急招安全负责人:AI安全危机下的紧急应对与团队动荡内幕

作为应对措施之一,OpenAI已于今年9月上线了青少年模式。而此次招聘安全防范负责人,则是其重启安全关注的核心举措。该负责人不仅需要为尚未发布的最强AI模型建立风险识别与评估系统,还需提前制定应对策略。

OpenAI豪掷389万急招安全负责人:AI安全危机下的紧急应对与团队动荡内幕

这意味着,未来OpenAI新模型是否发布,这位负责人的意见将成为关键参考。然而,考虑到首席执行官奥特曼过往在安全与产品发布速度之间的权衡记录,其意见能否被采纳仍存疑问。此前,包括伊尔亚·苏茨克维在内的多名员工都曾因安全问题与奥特曼产生分歧并最终离开。

动荡的OpenAI安全团队历程

OpenAI的安全团队领导层一直处于不稳定状态。

2023年7月,OpenAI成立了由伊尔亚·苏茨克维和扬·莱克(后加入Anthropic)共同领导的“超级对齐”团队,旨在用四年时间开发能与人类水平相当的自动对齐研究器。然而,随着伊尔亚因不满公司罔顾安全、急于发布模型而离职,该团队最终解散。

“超级对齐”团队解散后,为回应公众对AI安全的担忧,OpenAI组建了更侧重于解决实际模型层风险的“安全防范”团队。该团队的首任负责人是亚历山大·马德里,但不到一年他便被调离至其他新项目。

随后,华金·奎尼奥内罗·坎德拉和翁荔共同接管了该团队,但二人也于今年相继离职。至此,该团队负责人职位一直空缺。

OpenAI豪掷389万急招安全负责人:AI安全危机下的紧急应对与团队动荡内幕

安全团队核心负责人的频繁更迭,加深了外界对OpenAI“不重视安全”的印象。公司高层虽屡次强调安全的重要性,但执行层面的顶级团队却屡失领袖,这似乎表明在资源分配、内部话语权和路线优先级上,安全并未获得真正的重视。

OpenAI豪掷389万急招安全负责人:AI安全危机下的紧急应对与团队动荡内幕

因此,此次紧急招聘究竟是公司痛定思痛的决心之举,还是面临舆论压力的应激反应,仍有待观察。

参考链接:
[1]https://www.engadget.com/ai/openai-is-hiring-a-new-head-of-preparedness-to-try-to-predict-and-mitigate-ais-harms-220330486.html
[2]https://www.washingtonpost.com/technology/2025/12/27/chatgpt-suicide-openai-raine
[3]https://x.com/sama/status/2004939524216910323


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/16257

(0)
上一篇 2025年12月29日 下午1:13
下一篇 2025年12月29日 下午1:26

相关推荐

  • 大模型安全危机全景:从攻击引擎到系统性漏洞的深度剖析

    随着人工智能技术的飞速发展,大型语言模型(LLM)已从辅助工具演变为网络攻击链条的核心引擎,其安全风险正从传统领域向科研、自动化交互等细分场景快速渗透。本周披露的多项研究揭示了这一趋势的严峻性:从LLM自主生成多态勒索软件颠覆传统防御逻辑,到训练数据污染引发主流模型批量嵌入恶意URL;从AI生成钓鱼邮件点击率大幅提升,到提示注入攻击在同行评审、AI智能体等场…

    2025年9月5日
    32800
  • 代理型LLM安全新范式:基于白名单的LLMZ+方案如何实现零误判防御

    在人工智能技术快速渗透企业核心业务的今天,代理型大型语言模型(LLM)正成为企业数字化转型的关键枢纽。与传统仅提供对话功能的聊天机器人不同,代理型LLM被赋予了访问敏感数据、调用API接口、执行业务流程等关键权限,使其在企业内部扮演着类似“数字员工”的角色。然而,这种权限的扩展也带来了前所未有的安全挑战——一旦被恶意攻击者通过越狱技术控制,后果将不亚于服务器…

    2025年10月9日
    31200
  • 大模型安全攻防全景:从红队评估到运行时防护的开源武器库深度解析

    在生成式人工智能技术快速演进的时代,大模型的安全问题已从理论探讨演变为迫在眉睫的实战挑战。本文将从技术架构、攻防逻辑和应用场景三个维度,系统分析当前大模型安全领域的核心工具生态,为从业者提供全面的技术参考和实践指南。 ## 一、安全评估框架的技术演进与攻防逻辑 大模型安全评估工具的核心价值在于主动发现潜在风险。传统软件安全测试方法在大模型场景下面临着根本性挑…

    大模型安全 2025年7月4日
    33000
  • Claude强推身份验证:用户隐私与平台安全的博弈,AI工具走向何方?

    为防止滥用、落实平台政策及履行法律合规义务,部分用户在访问特定功能或触发平台风控(完整性检查)时,将收到强制身份验证提示。 此举意味着,用户账号风险从一种模糊状态转变为明确的“明牌”状态。平台将验证、审查与处置流程完全公开化,不再留有模糊空间。 官方公告解读:针对“高风险用户”的清晰信号 Anthropic 的官方公告措辞标准,提及“防止滥用”、“执行使用政…

    2026年4月16日
    48600
  • 南京大学联合美团、上交推出RunawayEvil:首个I2V自进化越狱框架,破解视频生成模型安全漏洞

    来自南京大学 PRLab 的王淞平、钱儒凡,在单彩峰教授与吕月明助理教授的联合指导下,提出了首个面向图生视频(I2V)模型的多模态自进化越狱攻击框架 RunawayEvil。该研究联合了美团、上海交通大学等多家机构,共同完成了首个支持多模态协同与自主进化的 I2V 越狱攻击框架的研发。 RunawayEvil 创新性地采用「策略 – 战术 &#8…

    2025年12月25日
    30700