OpenAI前首席科学家Ilya Sutskever秘密备份的公司内部文件,近日被媒体披露。
这份长达70页的机密备忘录,以及超过200页的私人笔记,揭示了OpenAI内部一场非同寻常的权力斗争。文件显示,信息通过拍摄屏幕、避开公司系统、使用阅后即焚应用等方式传递,内容直指核心矛盾:
Sam Altman被指存在长期且严重的诚信问题。
《纽约客》杂志最新报道披露了事件详情,其内容颇具戏剧性:
- 从OpenAI董事会到微软高级管理层,跨越二十年、涉及多个组织,对Sam Altman的核心评价高度一致:缺乏诚信。
- OpenAI的非营利使命要求其CEO必须具备极高的诚信品质,但Ilya Sutskever逐渐发现Altman恰恰缺乏这种品质,甚至完全相反。
- Altman被董事会解雇后的五天里,在其住所设立了一个“作战室”,从资本、员工和舆论三条战线同时施压,最终导致董事会无力招架。
- 宫斗事件平息后,Altman不仅没有收敛,反而加速了公司内部安全承诺的瓦解,导致“超级对齐”团队被边缘化。

本以为告一段落的硅谷权力之争,因Altman与Ilya的纠葛再次更新。
为何OpenAI的首席科学家要采取类似间谍片的手法搜集CEO的“罪证”?
这份备忘录里究竟记载了什么,让一位董事会成员回忆时仅用三个字形容自己的感受——“吓坏了”?
Ilya秘密备份的70页OpenAI内部文件曝光
Sam Altman的诚信危机
可以说,OpenAI从创立之初,就为自己设定了一道极为严苛的门槛。
这份70页的备忘录指出,OpenAI在创建时被设计为一个将安全置于顶端的组织——采用非营利架构,董事会优先对人类整体负责,甚至在极端情况下,可以牺牲公司本身。
正因其承载的公共利益属性,OpenAI对CEO的要求也尤为特殊:必须拥有极高的可信度。
然而,问题恰恰出在这里。
2019年,Ilya Sutskever还在OpenAI办公室为联合创始人Greg Brockman主持婚礼,甚至安排了一只机械手担任戒指递送员。
那时,技术理想与人际信任看似和谐统一。但随着模型能力不断逼近临界点,Ilya开始重新思考一个根本问题:如果这项强大技术最终被创造出来,谁将掌控它?他的答案变得越来越明确,最终凝结成一个冷静的判断:
“我不认为Altman是那个能为OpenAI做出最终决定的人。”
理由并非质疑Altman的能力,而主要在于对其人品的怀疑……
于是,Ilya随后采取的一系列行动,已远超一家科技公司内部讨论的范畴。正如披露的信息所示:
70页材料被系统整理,包含Slack聊天记录与内部文件,关键内容用手机拍摄以规避公司设备监控,再通过会自动消失的消息应用发送给董事会。
一位收到材料的董事后来回忆,看到这些爆料时,他坦言自己“被吓坏了”。
五天宫斗:从F1赛场到豪宅“作战室”
在Ilya那份70页的机密备忘录中,当年的OpenAI董事会风波被还原得更为具体,也更具戏剧性。
而事件的起点,本身就带有几分荒诞色彩——
当时Altman正在拉斯维加斯观看F1比赛,被一通视频电话紧急召离。电话那头,Ilya宣读了一份极其简短的声明:
他(Altman)不再担任OpenAI的CEO。
没有事前铺垫,没有证据披露。更令人意外的是,连微软核心投资人Reid Hoffman这个级别的人物,事前也完全不知情。
得知自己被“立即解职”后,Altman当晚便在自己的豪宅中迅速搭建起一个临时指挥部,旨在推动“拯救Altman”行动。

Altman的目标是迅速从三个层面施加压力:
第一,资本施压。
关键投资方Thrive Capital冻结投资,微软则直接表态可以另起炉灶:董事会可以更换CEO,但OpenAI这个实体也可能随之消失。
第二,员工站队。
一份支持Altman回归的联名信迅速扩散,几乎获得全体员工签署。甚至连最初站在董事会一边的临时CEO Mira Murati,最终也倒向Altman,在联名信上签字。
第三,舆论掌控。
董事会选择保持沉默,而Altman一方则持续释放信息,主导了舆论走向。
结果便是,Ilya最终也不得不妥协,承认如果Altman不回归,公司可能面临崩溃。
五天之后,尘埃落定——Altman重返OpenAI,原有董事会出局。
甚至,OpenAI内部员工给这场硅谷史上经典的反转戏码起了个名字:“The Blip”(意为“小插曲”或“短暂失常”)。
“The Blip”之后:安全承诺的瓦解
风波平息后,OpenAI发生的变化并未止步于权力更迭,那套旨在“限制权力”的机制开始逐步松动。
最先出现问题的,是资源分配。
OpenAI曾公开承诺,将把20%的算力用于长期安全研究,这是公司当时最核心的安全保障之一。
但实际执行很快走样——分配给安全研究的算力占比一路下滑至1%-2%,且分到的还是最旧的集群和最差的芯片。
当安全团队负责人Jan Leike提出异议时,得到的回应是:这个承诺从一开始就不切实际。
安全事项从优先级别,逐渐沦为象征性存在。
第二步,既定流程被绕过。
在OpenAI,原本涉及高风险功能的发布,需要经过安全委员会审核。
但在后续的产品迭代中,一些争议最大的功能并未走完完整的审批流程便直接上线。甚至某些地区版本的产品,也在安全评估完成前就已发布。
第三步,调查机制失去约束力。
董事会风波后,OpenAI聘请了曾处理过多起公司丑闻的WilmerHale律师事务所进行独立调查。
按该律所的正常流程及外界普遍预期,此事应有一份正式、可追溯的书面报告。
但最终结果却是——没有书面报告。
调查结论仅以口头形式汇报给新董事会。而不撰写书面报告的建议,恰恰来自由Altman参与选定的董事的私人律师。
削减资源、放松流程、弱化调查——这三步看似都是微调,但当系统可以一再绕过既定限制时,限制本身便已名存实亡。
二十年前就已存在的预警?
客观而言,围绕Sam Altman的种种评价,并非在OpenAI时期才首次出现。
事实上,跨越二十年、涉及多个组织,对Altman的核心评价惊人地一致:
此人缺乏诚信,行事难以预料。
最早的预警可追溯到2013年。
已故天才程序员Aaron Swartz曾私下对朋友做出过对Altman极为严厉的判断:
你必须明白,Altman这个人永远不值得信任。他是个反社会者,为达目的可以不择手段。
在他首次创业阶段,问题已然显现。
公司内部员工曾两次推动董事会撤换他,甚至需要投资人亲自入驻公司,对他进行监督。
此后,当他进入更核心的创业与投资圈层时,问题开始升级——从内部管理矛盾,演变为广泛的信任危机。
有内部人士后来承认,Altman一直在隐瞒信息,例如对外公告的说法屡经修改,职位描述一改再改甚至最终删除。
然而在正式的监管备案文件中,他依然被列在原有职位上?换言之,表面关系已变,实际权责却未同步调整。

这些分散在不同阶段的评价,在OpenAI时期集中爆发——
董事会成员评价他“不受事实约束”,甚至被形容为对欺骗可能带来的后果缺乏基本顾虑。
另一位高管则表示,他未来“有可能被列入重大商业丑闻人物的序列中进行讨论”。
另一位有详细记录习惯的人是后来成为Anthropic CEO的Dario Amodei,他留下了200多页笔记,其中包含大量对OpenAI和Altman本人的评价。
尽管与Ilya并非密友,但Amodei得出了与Ilya相同的结论:OpenAI内部出现的一系列问题,根源不在公司制度本身,而在于Altman个人。
甚至,Amodei的措辞更为激烈,对Altman的评价是——他说的话几乎可以确定是胡扯!

信息来源不同、时间阶段不同,但指向高度一致。
更微妙的是,尽管负面评价如此之多,Altman本人对此的回应却显得轻描淡写。面对质疑,他只是表示:
不好意思,我无法改变我的性格。
在Ilya的70页备忘录中,还有一个值得注意的细节:OpenAI办公区内随处可见“Feel the AGI”的标语。
这句话最初由Ilya提出,用以警示同事关注AGI(通用人工智能)可能带来的风险。然而,在董事会罢免Sam Altman未遂的“宫变”事件后,这句标语的含义似乎发生了转变,成为了某种庆祝未来技术的口号。
(此举颇具讽刺意味,Ilya的初衷已被彻底改写。)
后续进展
事件仍在发酵。
曝光此备忘录的《纽约客》记者在X平台上透露,当他们试图就“AI生存风险”议题采访OpenAI的相关研究员时,得到了官方的如下回应:
你说的“存在性安全”是什么?我们这里没有这个东西。

然而,颇具戏剧性的是,就在这篇调查报告发布几小时后,OpenAI“恰好”宣布推出一个旨在支持AI安全研究的新项目。

此举与之前的官方表态形成了鲜明对比,似乎印证了备忘录中对公司“言行不一”的指控。
关注“鲸栖”小程序,掌握最新AI资讯
本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/28986


