奥特曼自曝:不想当上市公司CEO,豪赌1.4万亿算力押注AGI未来

近日,OpenAI CEO山姆·奥特曼做客《Big Technology Podcast》节目,分享了诸多犀利观点。

奥特曼自曝:不想当上市公司CEO,豪赌1.4万亿算力押注AGI未来

访谈中,奥特曼曝出不少引人注目的言论。例如,他明确表示:“对于担任一家上市公司的CEO,我一点都不感到兴奋。”此言一出,迅速被外媒捕捉并广泛报道。

奥特曼自曝:不想当上市公司CEO,豪赌1.4万亿算力押注AGI未来

本次访谈直面了许多尖锐问题:OpenAI的收入将如何匹配其1.4万亿美元的算力投入承诺?公司的债务状况是否堪忧?有评论认为,这次采访终于清晰地揭示了OpenAI的财务运作逻辑。

奥特曼自曝:不想当上市公司CEO,豪赌1.4万亿算力押注AGI未来

一种分析指出,如果OpenAI在最后一轮私募融资中筹集约750亿美元,随后通过IPO再筹集750亿美元,那么该公司很可能拥有足够的资本支撑自身走到实现正向现金流的阶段。

那么,这场播客还有哪些核心亮点?

奥特曼自曝:不想当上市公司CEO,豪赌1.4万亿算力押注AGI未来

奥特曼:我一点都不想当上市公司CEO

当被主持人问及是否想成为一家上市公司的CEO时,奥特曼的回答非常坦率:“一点都不想。”

奥特曼自曝:不想当上市公司CEO,豪赌1.4万亿算力押注AGI未来

但他随即补充道:“不想上市,但可能不得不上市。”奥特曼指出,作为一家仍需巨额资本投入的公司,OpenAI迟早会面临股东人数上限、融资结构等现实问题。因此,上市并非情绪化的选择,而是结构性的必然结果。

他对此心情复杂:上市的好处是能让更多人分享创造的价值;坏处则是不得不应对短期主义、季度业绩压力和舆论噪音。“这会很烦人,但也许是必须经历的阶段。”

奥特曼自曝:不想当上市公司CEO,豪赌1.4万亿算力押注AGI未来

真正让奥特曼警惕的,并非资本本身,而是“被低估的影响力”。整场访谈中,他反复表现出一种罕见的克制——他比大多数人都更担忧AI的成功。原因在于,当前的AI模型已经足够强大,但社会在应用方式、制度规范和伦理框架方面都远远没有准备好。

GPT-5.2是AGI吗?

主持人提出了一个尖锐问题:“如果GPT-5.2在几乎所有方面都比人类更聪明,这难道不就是AGI吗?”

奥特曼回应称,AGI的问题不在于“是否达到”,而在于“从未被清晰定义”。GPT-5.2缺少什么?他认为,是缺乏一种关键能力:意识到“我不会”,并主动去学习如何“我会”。

但紧接着,奥特曼话锋一转,说了一句耐人寻味的话:即便停留在现有水平,世界也远远没有“用完”这些模型的价值。

奥特曼自曝:不想当上市公司CEO,豪赌1.4万亿算力押注AGI未来

从AGI到“超智能”,或许才是真正的分界线

奥特曼提出了一个新视角:与其纠结于AGI的定义,不如直接讨论“超智能”。 当一个系统能够比任何人类都更好地担任总统、CEO或科研机构负责人,且无需人类辅助时,那才是真正的超级智能

他举例说,在国际象棋领域,早期是“人类+AI”强于“纯AI”,但后来变成了“纯AI”强于“人类+AI”。在某些智能层级上,人类只会成为干扰项。

谷歌与DeepSeek,让我们拉响红色警报

奥特曼承认,当谷歌发布Gemini 3、当DeepSeek等竞争对手在某个维度突然逼近时,OpenAI内部便会进入一种“战时状态”应急模式。

奥特曼自曝:不想当上市公司CEO,豪赌1.4万亿算力押注AGI未来

这种“红色警报”在OpenAI内部已是常态,通常持续6到8周,期间集中修补产品短板、加速发布关键更新,然后恢复常规节奏。竞争正迫使OpenAI变得更好。

ChatGPT的周活跃用户已逼近9亿。奥特曼判断:这一领先优势不会缩小,反而会继续扩大。 因为AI竞争早已超越“模型参数多少”的层面,用户真正依赖的是一个稳定、熟悉且能持续积累价值的平台。OpenAI真正担心的,并非“别人追上模型”,而是错过下一次平台级跃迁的窗口。

奥特曼自曝:不想当上市公司CEO,豪赌1.4万亿算力押注AGI未来
奥特曼自曝:不想当上市公司CEO,豪赌1.4万亿算力押注AGI未来

1.4万亿美元算力赌局,OpenAI在押注什么?

访谈中最硬核的部分,是关于OpenAI未来多年计划在算力与基础设施上总体投入1.4万亿美元的豪赌。这个数字引发了市场的广泛不安。

奥特曼自曝:不想当上市公司CEO,豪赌1.4万亿算力押注AGI未来

奥特曼对此十分清楚。他反复强调:这不是一笔“短期豪赌”,而是一条被需求反复验证过的长期曲线。

算力不是“成本”,而是生命线?

奥特曼言简意赅地总结:算力,是限制一切可能性的瓶颈! 他的观点很直接:“如果人们真的知道我们能用更多算力做什么,他们只会想要更多。”

这一判断基于一个反复出现的规律:每当模型能力变强一点、延迟降低一点、成本再下降一点,需求就会立刻成倍放大

为了帮助理解,奥特曼做了一个类比:假设顶级AI公司每天输出10万亿级别的token,而全球80亿人类每人每天“输出”约2万token的思考量,那么我们会发现,AI输出的“智力劳动规模”正在逼近,甚至未来会远超全人类的总和。

奥特曼自曝:不想当上市公司CEO,豪赌1.4万亿算力押注AGI未来

因此,投入1.4万亿美元的算力并不夸张。

算力真正要买的,是“尚未被发明的未来”

当被追问如此庞大的算力将用于何处时,奥特曼给出的答案并非制造更多聊天机器人。最令他兴奋的方向只有一个——科学发现,例如新材料、新药物、疾病机理以及基础物理与数学问题。

在奥特曼看来,科学进步是推动世界整体向好的最高阶变量,而AI才刚刚开始触及这个领域的门槛。算力建设不是一次性投入,而是“提前十年的工程”。一个常被外界忽略的现实是:算力建设的节奏,永远落后于模型的需求,因为数据中心、芯片、能源和网络都需要漫长的提前规划。

奥特曼自曝:不想当上市公司CEO,豪赌1.4万亿算力押注AGI未来
奥特曼自曝:不想当上市公司CEO,豪赌1.4万亿算力押注AGI未来

奥特曼直言,他们现在的每一个基础设施决策,都是在为一个尚不存在、但高度确定会到来的需求做准备。这就是为什么即便知道存在风险,他们仍选择继续扩张。

OpenAI是否过度建设了?奥特曼给出了一个硬核的回答:迄今为止,他们从未遇到过算力无法被变现的情况。在他看来,真正的风险从来不是“算力太多”,而是算力不足,限制了可能性。因此,1.4万亿美元购买的并非服务器,而是一个前提假设:人类对智能的需求,远未接近上限。

OpenAI,可能要亏损上千亿美元

1.4万亿美元的算力计划引发了严峻质疑:钱从哪来?如何赚回?

外界流传,OpenAI在未来几年可能累计亏损上千亿美元,直到2028-2029年左右才接近盈利。奥特曼并未否认这一判断,但他立刻补充了一个关键前提:如果停止扩大训练规模,OpenAI现在就可以盈利。

也就是说,OpenAI的亏损并非商业模式失效,而是主动选择将资金持续投入训练和算力扩张

在OpenAI的财务模型中,存在一个关键拐点

早期阶段,模型训练成本占据绝对主导,每一次新模型的研发都意味着巨额投入。而进入后期,推理成本将成为主要支出,但与之对应的是,推理服务直接产生收入

奥特曼的判断是:随着模型走向成熟,推理收入将逐步“淹没”训练成本

奥特曼自曝:不想当上市公司CEO,豪赌1.4万亿算力押注AGI未来

指数级增长,是人类最难直觉理解的东西

当被问及“如何用数十亿、数百亿美元的收入,支撑起万亿美元级别的投入”时,萨姆·奥特曼将问题引向了一个更根本的认知层面:人类天生不擅长理解指数增长

用线性思维审视算力投入,它永远显得“过于激进”。但若将算力规模、模型能力、使用频率和收入增长置于同一条指数曲线上,其内在逻辑便截然不同。

奥特曼随后承认了一个现实:OpenAI从未有过算力富余的时刻。算力不足会限制产品能力,进而压制收入增长,而这又会反过来制约算力的扩建,形成一条反向锁死的链条。OpenAI当前的目标,正是一次性跳出这个约束区间

为什么OpenAI的债务并不疯狂?

市场对“债务”的最大担忧在于:AI作为新兴行业,其长期需求是否稳定存在不确定性。

但奥特曼的看法非常务实:没有人怀疑AI基础设施“是否有价值”。真正的不确定性只在于谁来用、什么时候用、以及普及速度有多快

在他看来,为数据中心融资、为长期基础设施引入债务,本质上与历史上修建铁路、建设电网、铺设互联网没有区别。他并不否认过程中会出现波动、泡沫甚至阶段性清算,但这不会改变技术的长期发展方向。

归根结底,OpenAI并非在赌“不会亏钱”,而是在赌——市场对智能需求的增长速度,将超越所有保守预期

一段正在展开、无法暂停的历史

如果用一句话总结奥特曼的世界观,那就是:不要赌人类会停下脚步,也不要赌智能的演进会停下脚步。

AI并非一项普通技术,它更像电力、互联网或印刷术——一旦诞生,便不会被“收回”。OpenAI所做的,不过是试图在这条不可逆的演进曲线上,尽力保持领先,并努力确保其发展不失控。

参考资料
* https://www.businessinsider.com/sam-altman-openai-ceo-of-public-company-would-be-annoying-2025-12
* https://www.youtube.com/watch?v=2P27Ef-LLuQ


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/13986

(0)
上一篇 2025年12月20日 下午12:46
下一篇 2025年12月20日 下午1:51

相关推荐

  • 港科团队突破AI学术博弈:RebuttalAgent用心智理论解码审稿人意图,让反驳回复直击痛点

    面对同行评审,许多作者都有过这样的经历:明明回答了审稿人的每一个问题,态度也足够谦卑,为什么最终还是没能打动对方? 现有的通用大模型在处理这类任务时,往往陷入一种“表面礼貌”的陷阱:它们擅长生成流畅、委婉的“Thank you for your insightful comment”,却缺乏对审稿人言外之意的深度洞察,导致回复虽然客气,但缺乏直击痛点的说服力…

    2026年2月3日
    11100
  • RoboPocket:让普通人成为具身智能数据采集师,边采边筛提升模型训练效率

    一部手机加一个“夹爪”,随时随地采集具身智能数据 现在,只需一部手机和一个“夹爪”,就能随时随地完成具身智能数据采集。 采集到的数据质量高、可直接用于训练,并已在模型训练中验证了效果。* 模型在多步连续任务中,动作衔接更稳定。* 在真实场景中面对光照变化、环境杂乱或物体遮挡时,执行鲁棒性显著提升,更不容易失手。* 当任务目标发生小幅变化(如操作顺序调整)时,…

    2026年1月12日
    23400
  • 突破模型家族壁垒:Hugging Face GOLD技术实现跨分词器知识蒸馏革命

    在人工智能模型部署与优化的前沿领域,模型压缩技术一直是平衡性能与效率的关键。传统知识蒸馏方法虽然能够将大型“教师”模型的知识迁移到小型“学生”模型中,但长期以来面临一个根本性限制:教师和学生模型必须使用相同的分词器。这一限制严重制约了技术应用的灵活性,使得不同模型家族之间的知识传递几乎不可能实现。 Hugging Face研究团队最新提出的GOLD(Gene…

    2025年10月30日
    19700
  • Cloudflare全球宕机事件深度剖析:AI时代数字基建的脆弱性与系统性风险

    2025年11月18日,全球互联网经历了一场前所未有的系统性崩溃。Cloudflare作为支撑全球20%网站流量的基础设施服务商,因一次常规维护操作引发连锁反应,导致包括ChatGPT、X(原Twitter)、亚马逊、Zoom等在内的众多AI巨头和互联网服务陷入长达数小时的瘫痪。这起事件不仅暴露了现代数字基础设施的脆弱性,更揭示了AI时代技术演进与系统稳定性…

    2025年11月19日
    18400
  • 信息论视角下的思考革命:Adaptive Think如何终结大模型的过度推理困境

    在人工智能领域,大模型的推理能力已成为衡量技术进步的关键指标。从OpenAI的o1系列到DeepSeek的R1,再到QwQ等强化学习推理模型,这些系统通过生成冗长的推理链条(Chain-of-Thought,CoT),在数学、逻辑和常识推理任务中展现出令人瞩目的多步推理能力。然而,中国人民大学、腾讯Jarvis Lab和西湖大学的研究团队通过深入分析发现,当…

    2025年12月19日
    19800