奥特曼自曝:不想当上市公司CEO,豪赌1.4万亿算力押注AGI未来

近日,OpenAI CEO山姆·奥特曼做客《Big Technology Podcast》节目,分享了诸多犀利观点。

奥特曼自曝:不想当上市公司CEO,豪赌1.4万亿算力押注AGI未来

访谈中,奥特曼曝出不少引人注目的言论。例如,他明确表示:“对于担任一家上市公司的CEO,我一点都不感到兴奋。”此言一出,迅速被外媒捕捉并广泛报道。

奥特曼自曝:不想当上市公司CEO,豪赌1.4万亿算力押注AGI未来

本次访谈直面了许多尖锐问题:OpenAI的收入将如何匹配其1.4万亿美元的算力投入承诺?公司的债务状况是否堪忧?有评论认为,这次采访终于清晰地揭示了OpenAI的财务运作逻辑。

奥特曼自曝:不想当上市公司CEO,豪赌1.4万亿算力押注AGI未来

一种分析指出,如果OpenAI在最后一轮私募融资中筹集约750亿美元,随后通过IPO再筹集750亿美元,那么该公司很可能拥有足够的资本支撑自身走到实现正向现金流的阶段。

那么,这场播客还有哪些核心亮点?

奥特曼自曝:不想当上市公司CEO,豪赌1.4万亿算力押注AGI未来

奥特曼:我一点都不想当上市公司CEO

当被主持人问及是否想成为一家上市公司的CEO时,奥特曼的回答非常坦率:“一点都不想。”

奥特曼自曝:不想当上市公司CEO,豪赌1.4万亿算力押注AGI未来

但他随即补充道:“不想上市,但可能不得不上市。”奥特曼指出,作为一家仍需巨额资本投入的公司,OpenAI迟早会面临股东人数上限、融资结构等现实问题。因此,上市并非情绪化的选择,而是结构性的必然结果。

他对此心情复杂:上市的好处是能让更多人分享创造的价值;坏处则是不得不应对短期主义、季度业绩压力和舆论噪音。“这会很烦人,但也许是必须经历的阶段。”

奥特曼自曝:不想当上市公司CEO,豪赌1.4万亿算力押注AGI未来

真正让奥特曼警惕的,并非资本本身,而是“被低估的影响力”。整场访谈中,他反复表现出一种罕见的克制——他比大多数人都更担忧AI的成功。原因在于,当前的AI模型已经足够强大,但社会在应用方式、制度规范和伦理框架方面都远远没有准备好。

GPT-5.2是AGI吗?

主持人提出了一个尖锐问题:“如果GPT-5.2在几乎所有方面都比人类更聪明,这难道不就是AGI吗?”

奥特曼回应称,AGI的问题不在于“是否达到”,而在于“从未被清晰定义”。GPT-5.2缺少什么?他认为,是缺乏一种关键能力:意识到“我不会”,并主动去学习如何“我会”。

但紧接着,奥特曼话锋一转,说了一句耐人寻味的话:即便停留在现有水平,世界也远远没有“用完”这些模型的价值。

奥特曼自曝:不想当上市公司CEO,豪赌1.4万亿算力押注AGI未来

从AGI到“超智能”,或许才是真正的分界线

奥特曼提出了一个新视角:与其纠结于AGI的定义,不如直接讨论“超智能”。 当一个系统能够比任何人类都更好地担任总统、CEO或科研机构负责人,且无需人类辅助时,那才是真正的超级智能

他举例说,在国际象棋领域,早期是“人类+AI”强于“纯AI”,但后来变成了“纯AI”强于“人类+AI”。在某些智能层级上,人类只会成为干扰项。

谷歌与DeepSeek,让我们拉响红色警报

奥特曼承认,当谷歌发布Gemini 3、当DeepSeek等竞争对手在某个维度突然逼近时,OpenAI内部便会进入一种“战时状态”应急模式。

奥特曼自曝:不想当上市公司CEO,豪赌1.4万亿算力押注AGI未来

这种“红色警报”在OpenAI内部已是常态,通常持续6到8周,期间集中修补产品短板、加速发布关键更新,然后恢复常规节奏。竞争正迫使OpenAI变得更好。

ChatGPT的周活跃用户已逼近9亿。奥特曼判断:这一领先优势不会缩小,反而会继续扩大。 因为AI竞争早已超越“模型参数多少”的层面,用户真正依赖的是一个稳定、熟悉且能持续积累价值的平台。OpenAI真正担心的,并非“别人追上模型”,而是错过下一次平台级跃迁的窗口。

奥特曼自曝:不想当上市公司CEO,豪赌1.4万亿算力押注AGI未来
奥特曼自曝:不想当上市公司CEO,豪赌1.4万亿算力押注AGI未来

1.4万亿美元算力赌局,OpenAI在押注什么?

访谈中最硬核的部分,是关于OpenAI未来多年计划在算力与基础设施上总体投入1.4万亿美元的豪赌。这个数字引发了市场的广泛不安。

奥特曼自曝:不想当上市公司CEO,豪赌1.4万亿算力押注AGI未来

奥特曼对此十分清楚。他反复强调:这不是一笔“短期豪赌”,而是一条被需求反复验证过的长期曲线。

算力不是“成本”,而是生命线?

奥特曼言简意赅地总结:算力,是限制一切可能性的瓶颈! 他的观点很直接:“如果人们真的知道我们能用更多算力做什么,他们只会想要更多。”

这一判断基于一个反复出现的规律:每当模型能力变强一点、延迟降低一点、成本再下降一点,需求就会立刻成倍放大

为了帮助理解,奥特曼做了一个类比:假设顶级AI公司每天输出10万亿级别的token,而全球80亿人类每人每天“输出”约2万token的思考量,那么我们会发现,AI输出的“智力劳动规模”正在逼近,甚至未来会远超全人类的总和。

奥特曼自曝:不想当上市公司CEO,豪赌1.4万亿算力押注AGI未来

因此,投入1.4万亿美元的算力并不夸张。

算力真正要买的,是“尚未被发明的未来”

当被追问如此庞大的算力将用于何处时,奥特曼给出的答案并非制造更多聊天机器人。最令他兴奋的方向只有一个——科学发现,例如新材料、新药物、疾病机理以及基础物理与数学问题。

在奥特曼看来,科学进步是推动世界整体向好的最高阶变量,而AI才刚刚开始触及这个领域的门槛。算力建设不是一次性投入,而是“提前十年的工程”。一个常被外界忽略的现实是:算力建设的节奏,永远落后于模型的需求,因为数据中心、芯片、能源和网络都需要漫长的提前规划。

奥特曼自曝:不想当上市公司CEO,豪赌1.4万亿算力押注AGI未来
奥特曼自曝:不想当上市公司CEO,豪赌1.4万亿算力押注AGI未来

奥特曼直言,他们现在的每一个基础设施决策,都是在为一个尚不存在、但高度确定会到来的需求做准备。这就是为什么即便知道存在风险,他们仍选择继续扩张。

OpenAI是否过度建设了?奥特曼给出了一个硬核的回答:迄今为止,他们从未遇到过算力无法被变现的情况。在他看来,真正的风险从来不是“算力太多”,而是算力不足,限制了可能性。因此,1.4万亿美元购买的并非服务器,而是一个前提假设:人类对智能的需求,远未接近上限。

OpenAI,可能要亏损上千亿美元

1.4万亿美元的算力计划引发了严峻质疑:钱从哪来?如何赚回?

外界流传,OpenAI在未来几年可能累计亏损上千亿美元,直到2028-2029年左右才接近盈利。奥特曼并未否认这一判断,但他立刻补充了一个关键前提:如果停止扩大训练规模,OpenAI现在就可以盈利。

也就是说,OpenAI的亏损并非商业模式失效,而是主动选择将资金持续投入训练和算力扩张

在OpenAI的财务模型中,存在一个关键拐点

早期阶段,模型训练成本占据绝对主导,每一次新模型的研发都意味着巨额投入。而进入后期,推理成本将成为主要支出,但与之对应的是,推理服务直接产生收入

奥特曼的判断是:随着模型走向成熟,推理收入将逐步“淹没”训练成本

奥特曼自曝:不想当上市公司CEO,豪赌1.4万亿算力押注AGI未来

指数级增长,是人类最难直觉理解的东西

当被问及“如何用数十亿、数百亿美元的收入,支撑起万亿美元级别的投入”时,萨姆·奥特曼将问题引向了一个更根本的认知层面:人类天生不擅长理解指数增长

用线性思维审视算力投入,它永远显得“过于激进”。但若将算力规模、模型能力、使用频率和收入增长置于同一条指数曲线上,其内在逻辑便截然不同。

奥特曼随后承认了一个现实:OpenAI从未有过算力富余的时刻。算力不足会限制产品能力,进而压制收入增长,而这又会反过来制约算力的扩建,形成一条反向锁死的链条。OpenAI当前的目标,正是一次性跳出这个约束区间

为什么OpenAI的债务并不疯狂?

市场对“债务”的最大担忧在于:AI作为新兴行业,其长期需求是否稳定存在不确定性。

但奥特曼的看法非常务实:没有人怀疑AI基础设施“是否有价值”。真正的不确定性只在于谁来用、什么时候用、以及普及速度有多快

在他看来,为数据中心融资、为长期基础设施引入债务,本质上与历史上修建铁路、建设电网、铺设互联网没有区别。他并不否认过程中会出现波动、泡沫甚至阶段性清算,但这不会改变技术的长期发展方向。

归根结底,OpenAI并非在赌“不会亏钱”,而是在赌——市场对智能需求的增长速度,将超越所有保守预期

一段正在展开、无法暂停的历史

如果用一句话总结奥特曼的世界观,那就是:不要赌人类会停下脚步,也不要赌智能的演进会停下脚步。

AI并非一项普通技术,它更像电力、互联网或印刷术——一旦诞生,便不会被“收回”。OpenAI所做的,不过是试图在这条不可逆的演进曲线上,尽力保持领先,并努力确保其发展不失控。

参考资料
* https://www.businessinsider.com/sam-altman-openai-ceo-of-public-company-would-be-annoying-2025-12
* https://www.youtube.com/watch?v=2P27Ef-LLuQ


关注“鲸栖”小程序,掌握最新AI资讯

本文由鲸栖原创发布,未经许可,请勿转载。转载请注明出处:http://www.itsolotime.com/archives/13986

(0)
上一篇 1天前
下一篇 1天前

相关推荐

  • 从人工伪装到AI独角兽:Fireflies.ai的伦理争议与商业启示

    在AI创业浪潮中,Fireflies.ai的崛起故事既是一个商业奇迹,也是一个伦理警示。这家如今估值超过10亿美元的AI独角兽,其创业起点竟是两位创始人亲自假扮AI助手,手动记录会议笔记。这种“人工伪装AI”的MVP(最小可行产品)验证方式,虽然帮助公司完成了最初的商业可行性测试,但也引发了关于商业伦理、用户隐私和创业方法的深刻讨论。 Fireflies.a…

    2025年11月16日
    600
  • ICLR 2026数据泄露事件深度剖析:从API漏洞到AI生成审稿的学术信任危机

    2025年11月27日,全球AI学术圈经历了一场前所未有的信任危机。国际学习表征会议(ICLR)2026的评审系统因OpenReview平台的一个API漏洞,导致超过1万篇投稿论文的评审信息在61分钟内大规模泄露。这一事件不仅暴露了学术评审系统的安全脆弱性,更引发了关于同行评审制度有效性和AI在学术评价中角色的深刻反思。 技术层面的漏洞分析显示,问题根源在于…

    2025年12月4日
    400
  • 从“搜得到”到“看得懂”:秘塔AI搜索如何用漫画式课件重塑知识获取范式

    在AI技术日新月异的今天,知识获取方式正经历着前所未有的变革。近期,秘塔AI搜索推出的漫画式课件生成功能,不仅是对海外Nano Banana 2玩法的快速响应,更是一次对AI辅助学习场景的深度重构。这一功能通过将复杂文本转化为图文并茂、配有语音讲解的生动课件,彻底改变了用户处理学术论文、行业报告等长篇内容的传统模式。 从技术实现层面分析,秘塔AI搜索的课件生…

    2025年12月9日
    800
  • Real Deep Research:AI研究自动化革命,让机器读懂整个学科

    在人工智能研究呈现指数级增长的今天,科研人员面临着一个日益严峻的挑战:如何从海量文献中高效追踪前沿动态、识别关键趋势并发现跨领域机遇?传统的人工文献综述方法已难以跟上研究产出的速度,而现有的自动化工具又往往缺乏领域深度和专家洞察。加州大学圣迭戈分校与Nvidia等机构联合提出的Real Deep Research(RDR)系统,正试图通过系统化的自动化流程与…

    2025年11月2日
    700
  • 国产AI实现空间智能突破:SenseNova-SI超越国际顶尖模型,揭示AI技术范式变革

    空间智能领域迎来里程碑:SenseNova-SI实现全面超越 在空间智能这一前沿研究领域,一项重要进展近日引发行业关注。商汤科技发布的开源模型SenseNova-SI,在多项关键能力评估中超越了李飞飞团队研发的Cambrian-S模型,标志着国产AI技术在该领域取得突破性进展。 从空间感知能力的综合评估数据来看,SenseNova-SI在多个维度上的表现均优…

    2天前
    1200