OpenAI掌门人Sam Altman深度分享:AI未来走向、成本曲线与无限智能体内部实践

OpenAI掌门人Sam Altman深度分享:AI未来走向、成本曲线与无限智能体内部实践 OpenAI掌门人Sam Altman深度分享:AI未来走向、成本曲线与无限智能体内部实践

昨天,OpenAI 首席执行官 Sam Altman 主持了一场线上 AMA 研讨会。在长达一小时的交流中,Sam Altman 对来自现场及线上观众的一系列问题进行了高密度、快节奏的回应。与会者背景多元,涵盖了斯坦福学生创业者、企业 CTO、独立开发者等 OpenAI 生态的重度用户。

Sam Altman 在研讨会上展现了清晰的逻辑与坦诚的态度,不仅分享了 OpenAI 对未来的判断,也承认了公司在发展过程中的犹豫与失误,甚至当场表示“我们这次搞砸了”。从“未来的软件只为一个人写”到“GPT-5.x 在写作上确实退步了”,再到预测 2027 年智能成本可能下降为当前的 1/100,整场讨论信息量巨大。

更重要的是,讨论清晰地揭示出:OpenAI 内部对于智能体(Agent)、成本、市场进入策略、安全、教育及科研等关键议题的探索仍在进行中,虽无标准答案,但方向已逐渐明朗。

关于 OpenAI 的未来走向,Sam Altman 明确表示,公司将继续坚持通用人工智能(AGI)的发展路线,坚信未来主流将是能力极强的通用模型。他透露,OpenAI 目前正沿着两条关键曲线进行探索:一是“压低成本”曲线,二是“速度曲线”——即在保持输出质量的前提下,能否以更高价格将响应时间缩短至原来的 1/100。公司将在两者间寻找平衡点。

对于当前火热的智能体(Agent)领域,Sam Altman 观察到市面上尚未出现特别优秀的构建工具,即便是 OpenAI 自家的 AgentBuilder,也仍在探索理想的交互界面形态。

当被问及“大模型能力提升是否会挤压创业空间”这一犀利问题时,Sam Altman 给出了一个判断框架:创业者应思考,如果 GPT-6 是一次惊人的升级,你的公司会感到高兴还是难受?应致力于构建那种“模型越强,产品越受益”的业务。对于 AI 可能带来的通缩压力,他并不否认劳动力成本将大幅降低,但同时认为许多事物将变得极其便宜,整体偏向利好。

关于未来软件的形态,Sam Altman 认为软件将变得“相对稳定、演进缓慢”,但高度个人化。这一点在 OpenAI 内部已得到印证,员工各有其独特的软件使用方式。此外,一位 OpenAI 开发者透露,内部已有通过特殊方式提示 Codex 或利用 SDK 构建“外壳”,以实现模型近乎无限执行的长时程 Agent 实验。

对于模型持续学习、自训练等热门研究方向,Sam Altman 表示目前距离纯 AI 实现尚有距离,“人类+AI”的组合模式当前仍更具优势。针对招聘问题,他回应 OpenAI 将持续招聘软件工程师,公司不会成为一家“零员工”企业。

谈及近期备受关注的 Clawdbot,Sam Altman 表示已准备好将自己的全部网站及历史记录交由 ChatGPT 处理,他认为这很酷,但前提是大模型的能力需进一步成熟。在安全方面,他提醒当前的“封堵限制”范式需要转向更具“韧性”的范式。

令人意外的是,在 AI 教育推广上,Sam Altman 给出了一个非“鸡娃”的观点:他认为幼儿园(含)之前的儿童应该远离 AI。

整场研讨会如同一扇窗口,揭示了 Sam Altman 及 OpenAI 对接下来几年发展路径的深度思考。以下是对其部分核心观点的梳理。

软件需求一点也没有减缓

未来的软件:只为一个人或极少数人写

Sam Altman:谢谢大家今天能来。当我们开始思考下一代面向开发者的工具,以及如何使用这些正在上线的、极其强大的模型时,我们其实很想先听听你们的想法:你们想要什么,在想什么,有什么问题。我希望今天结束的时候,我们能更清楚地知道该为你们构建什么,以及怎样把这些强大的模型真正变得有用。

我想先从 Twitter 上的一个问题开始。X用户提问:在软件工程的“杰文斯悖论”上,你站在哪一边?如果 AI 让写代码变得又快又便宜,这会降低对软件工程师的需求,还是会因为定制软件变得更便宜,从而极大增加需求,让工程师在未来几十年里持续被需要?

Sam Altman:我认为,“工程师”这个角色本身会发生非常大的变化。未来可能会有更多的人,创造出更多的价值,也能捕获更多价值,他们的核心能力是让计算机去做他们想做的事,或者做别人想要的事,去设计对他人真正有用的体验。但这个工作的形态,以及你花在敲代码、调试代码、处理各种细节上的时间,都会发生显著变化。

这种变化在工程史上已经发生过很多次。到目前为止,每一次变化的结果都是:更多的人能够加入进来并产生价值,世界里的软件总量也变得更多。对软件的需求看起来完全没有放缓。

我对未来的判断是:我们会大量使用那种“只为一个人,或者极少数人”写的软件,而且我们会不断地定制自己的软件。所以,会有更多的人让计算机去完成他们真正想做的事情,只是方式会和今天很不一样。如果你把这也算作“软件工程”,那我觉得它只会变得更多,而且由此创造和消费的 GDP 在全球占比也会继续上升。

有没有现场的问题?如果没有,我这边还有一长串。可以直接来。

OpenAI掌门人Sam Altman深度分享:AI未来走向、成本曲线与无限智能体内部实践

如何进入市场:找到差异化的价值

注意力依旧是最稀缺的资源

现场提问者:首先,非常感谢你给我们这个机会。从消费者的角度,我大量使用 ChatGPT,也经常在 Reddit 上看到大家在做的各种东西,不管是用 Codex、Lovable 还是 Cursor。但现在看起来,一个新的问题出现了:GTM(市场进入)。我能把东西做出来,但我怎么找到真正能从中获得价值的人?这好像成了一个瓶颈。你怎么看这个问题?

Sam Altman:在加入 OpenAI 之前,我在 Y Combinator 工作。几乎每一个创始人都会反复说一句话:“我以为最难的是把产品做出来,结果真正难的是让任何人关心它、使用它,或者把人与人连接起来。”所以,这件事一直都非常难。只是现在,构建产品本身变得太容易了,于是你会更强烈地感受到这个落差。

我没有什么简单的答案。做生意一直都很难,你需要找到真正有差异化的价值,想办法把 go-to-market 跑起来。这些旧规则依然成立。AI 让软件变得更容易开发,并不意味着其他事情会自动变简单。

当然,你已经开始看到一些变化:就像 AI 改变了软件工程一样,人们也在用 AI 自动化销售、自动化营销,这里面会出现一些成功案例。但整体来看,这件事始终都会很难,因为即便是在一个极度富足的世界里,人类的注意力依然是极其稀缺的资源。你永远在和其他人竞争分发能力。每一个潜在客户都很忙,都有别的事情要处理。

我完全可以想象这样一个未来:物质和能力都变得极度充裕,而人类注意力成了最后的核心商品。所以我预期这件事会一直很难,你必须想出足够有创造力的办法,去做出真正好的东西。

Sam:目前还没有人把Agent开发工具做对

George(独立开发者):谢谢你,Sam。我叫 George,是一名独立开发者,正在基于 Codex SDK 做一些东西,主要是多 Agent 的编排。我想问的是你们的 agent builder 工具,以及你们对这个产品未来的整体愿景。现在它看起来更像是工作流和 prompt 的串联。作为一个在 Codex SDK 之上构建产品的开发者,我想知道我是否“安全”?你是否认为多 Agent 编排在 UI 层面会有很多不同形态的空间,还是你们会划出一些不希望别人碰的区域?

Sam Altman:我们并不知道这一切最终会是什么样的界面。也不知道人们最终会想用什么方式来使用这些东西。我们已经看到有人构建出非常复杂、惊人的多 Agent 系统;也看到有人只做了一个极其出色的、单一的交互线程。这些形态不可能只靠我们自己想明白。而且,不是所有人都想要同一种东西。

  • 会有人像老电影里那样,坐在一堆屏幕前,疯狂切换、操作;
  • 也会有人希望只是在语音模式下,安静地跟计算机交流,每小时说一两句话,其余事情都交给系统自己处理。他们不想持续监督一堆智能体。他们会非常认真地思考自己说的每一句话,但不想被复杂系统打扰。

很多事情都会经历这样的过程:大家不断尝试不同路径,世界最终会收敛到少数几种主流形态,但不可能一开始就知道答案。我个人认为,构建工具来帮助人们真正驾驭这些极其强大的模型,是一件非常值得做的事。现在模型能力与人们能真正发挥出来的能力之间,存在着一个巨大而且还在扩大的“落差”。一定会有人做出真正能填补这个落差的工具。到目前为止,还没有人完全做对。我们也会尝试自己的版本,但这个领域的空间非常大,而且不同的人会有非常不同的偏好。

AI会带来强烈的通缩效应

Valerie Chapman(AI产品构建者):你好,Sam。我是 Valerie Chapman,目前正在基于 OpenAI 构建一个叫 Ruth 的产品。我很想听听你对这个问题的看法:目前,由于性别薪酬差距,女性每年大约“被迫”放弃了一百万美元的收入。你怎么看 AI 在弥合这种已经存在了几十年的经济差距方面能发挥什么作用?

Sam Altman:我觉得这里面有很多复杂的因素。但有一点我认为总体偏向于好消息:AI 会带来非常强烈的通缩效应。我对这一点来回思考过,因为你也可以想象一些奇怪的情形,比如全球的资金都流向自我复制的数据中心之类的。 OpenAI掌门人Sam Altman深度分享:AI未来走向、成本曲线与无限智能体内部实践

但整体来看,尤其是对于“坐在电脑前就能完成的工作”,再加上即将到来的机器人等领域,我们很可能会面对非常强的通缩压力。我说“偏向于好”,是因为其中确实会有一些复杂的问题需要应对。但在那些不被社会或政策人为限制的领域,很多东西会变得极其便宜。比如,如果不是因为政策原因,在旧金山多盖房子本来应该会非常快、非常便宜。

更重要的是,个体的能力会被极大地放大。不论社会结构是否曾经天然地给予他们优势,这种个人层面的赋能看起来只会持续增强。坦白说,我到现在仍然很难完全消化这一点:也许到今年年底,只需要一百到一千美元的推理成本,再加上一个好想法,你就能做出一款软件,而这在过去需要一个团队花一年时间才能完成。这种经济变化的量级,非常惊人。

它会带来极大的赋能、更丰富的资源、更低的创新门槛——不论是创建公司、开发新产品,还是推进科学发现。我认为这本身会成为一种“拉平差距”的力量,让那些长期被不公平对待的人,获得真正的机会。前提是,我们在政策层面不要犯下重大的错误——这确实是有可能发生的。我也确实担心某些未来路径:AI 可能会高度集中权力和财富。防止这种情况发生,应该成为政策层面的核心目标之一。 OpenAI掌门人Sam Altman深度分享:AI未来走向、成本曲线与无限智能体内部实践

坦承 GPT-5.x 搞砸了:能力尖刺化,但慢慢会赶上

Ben Hilac(Raindrop CTO):你好,我叫 Ben Hilac,是 Raindrop 的 CTO。我想问一个关于未来模型形态的问题:你如何看待“专用模型”和“通用模型”之间的取舍?举个例子,GPT-4.5 是我第一次感觉“写作能力真的很强”的模型。但最近在 Twitter 和 X 上有很多关于 ChatGPT 里 GPT-5 写作体验的讨论,觉得它有点难读、不够顺。当然,GPT-5 在智能体能力、工具使用、中间推理等方面都非常强。所以整体感觉是,模型现在变得有点“尖刺化”,甚至比以前更明显了。有些能力的“尖峰”非常高,比如编程能力;但在写作这类维度上,却显得很不稳定,甚至退步。我有点好奇,OpenAI 内部是如何看待这种能力分布的?

Sam Altman:说实话,我觉得这次是我们搞砸了。我们会在之后的 GPT-5.x 版本里,努力让它在写作方面明显好过 4.5。

我们确实做过一个取舍,我现在回看,仍然觉得这个取舍有其合理性:在 5.2 这一代,我们把绝大部分精力放在了智能性、推理、编程、工程能力这些方向上。而我们的带宽是有限的,有时候专注一个方向,就会忽略另一些。 OpenAI掌门人Sam Altman深度分享:AI未来走向、成本曲线与无限智能体内部实践

但我相信,未来的主流一定是非常强的通用模型。即便你在做一个“特别擅长写代码”的模型,也希望它能把文字写清楚。比如,如果你让它帮你生成一个完整应用,里面同样需要好的文字表达;当模型和你交互时,你也希望它具备一种有思考力、表达清晰的“人格”。这里说的“写得好”,指的是思路清楚、表达准确,而不是文辞优美。

我的期待是:我们会推动未来的模型在所有这些维度上都做到非常强,而且我相信这是可以实现的。智能这件事,比我们直觉中更具“可迁移性”,我们完全有机会在一个模型里,把这些能力都做到很好。眼下这个阶段,确实是一个特别重要的时间点,需要重点推动“编程智能”。但我们也会尽快在其他方面追上来。

2027年,GPT-5.2级别的智能成本降低100倍!

提问者(Unifi CTO):我是 Unifi 的 CTO。正好呼应你刚才说的,我们也在做 GTM 自动化。你之前说过一句话,对我触动很大——“智能应该便宜到无需计量”。现在,我们为客户运行几百万、上千万、甚至上亿个智能体的限制因素,主要还是成本。你怎么看未来几个月、几年里,小模型以及整体成本结构的变化?开发者能否看到数量级级别的成本下降?

Sam Altman:我觉得,到 2027 年底,我们应该能够把接近 GPT-5.2 水平的高阶智能,做到一个数量级更低的成本。我自己的判断是,至少 100 倍的下降。

但这里还有一个我们过去没有足够重视的维度。现在模型的输出变得越来越复杂,越来越多的人开始关心速度,而不仅仅是成本。在压低成本这条曲线上,我们做得非常好。你可以回头看看,从最早的 o1 preview 到现在,成本曲线下降得非常明显。

但我们没有同等强度地去思考另一件事:在保持相同输出质量的情况下,能否以更高的价格,把响应时间缩短到原来的 1/100。对你们提到的很多场景来说,这一点会非常重要。接下来,我们必须在“成本优先”和“速度优先”之间找到平衡。这两件事在工程上是完全不同的问题。但如果我们继续沿着市场当前最强烈的诉求——降低成本——去推进,那条曲线还有非常大的空间可以走。 OpenAI掌门人Sam Altman深度分享:AI未来走向、成本曲线与无限智能体内部实践

定制界面将不断贴合个人使用方式

X用户提问:当前的界面并不是为智能体设计的,但我们正在看到“为我而生的应用”快速增长。为什么定制化界面的创新,会进一步加速 micro-app 的趋势?

Sam Altman:这是我最近在使用 Codex 时非常强烈的一个体感变化。我已经不再把软件看成一种静态的东西了。当我遇到一个小问题时,我会期待计算机立刻写点代码,把问题解决掉。而且我觉得这个趋势会走得更远。

我怀疑,我们使用计算机和操作系统的整体方式,都会发生变化。当然,这并不意味着每次你要编辑文档,系统就会当场给你生成一个全新的文字处理器。我们对界面是非常依赖“熟悉感”的,比如某个按钮必须在它原来的位置。

但在很多其他事情上,我认为我们会逐渐习惯:软件就是为我写的。也许我还是用同一个文字处理器,但我使用它的方式有很多重复的小习惯,而我希望软件能围绕这些习惯不断定制。于是,软件会成为一种“相对稳定、缓慢演进”,但高度个人化的存在。它是为我写的,而你用的方式,可能和我完全不同。

工具不断为个人演化、不断贴合个人使用方式,这件事看起来几乎是必然会发生的。在 OpenAI 内部已经是这样了:大量人已经把 Codex 深度嵌入自己的工作流,每个人都有一套非常个人化的用法。所以,这个方向几乎是确定的。关键在于,具体会长成什么样,人们会用什么方式去构建,这些都非常值得探索。 OpenAI掌门人Sam Altman深度分享:AI未来走向、成本曲线与无限智能体内部实践

创业者跟大模型的边界:构建模型越强,用户越开心的产品

X上提问:当初创公司的功能很容易被模型升级取代时,开发者该如何思考“长期护城河”?有没有哪一层,是你们承诺“不会吃掉”的?

Sam Altman:现在很容易让人误以为:商业世界的“物理定律”已经完全变了。但至少目前,还没有。

变化的是,你可以更快地完成工作,也可以更快地构建新软件。但构建一家成功公司的其他规则并没有消失。

你仍然需要解决用户问题,需要解决市场进入策略,需要提供足够“粘性”的价值,建立某种护城河、网络效应或竞争优势。这些都没有变。

对我们来说也是一样的。已经有很多初创公司,做了某些事情——也许在理想情况下我们会更早做,但现实是已经来不及了。
他们已经建立起了真正持久的优势,而这种情况未来还会继续发生。

我通常给出的一个判断框架是:如果 GPT-6 是一次极其惊人的升级,你的公司会感到高兴,还是难受?

我们希望模型能持续快速进步。所以我会鼓励大家去构建那种:模型越强,你越开心的产品。

这样的机会非常多。当然,也有另一类产品,是围绕模型边缘做的小补丁,如果你能在模型升级前积累足够优势,也依然可能成立。只是那条路会更艰难,也更让人焦虑。

OpenAI掌门人Sam Altman深度分享:AI未来走向、成本曲线与无限智能体内部实践

无需人干预、长时程Agent何时到来

X用户
在当前即便是简单的链上任务,跑 5 到 10 步都会中断的情况下,真正能够长时间、自主运行、无需频繁人工干预的 agent,大概什么时候会出现?

Sam Altman
有没有 OpenAI 的同事想回答?来。

OpenAI 团队成员
这件事高度取决于任务类型。

在 OpenAI 内部,我们已经看到一些场景:有人用非常特殊的方式提示 Codex,或者通过 SDK 搭建一个“外壳”,不断地让模型继续运行,几乎是无限执行。

所以,这更多是一个“范围扩展”的问题,而不是“是否可行”的问题。
如果你有一个非常具体、理解得非常透彻的任务,其实今天就可以开始尝试。

但如果你想要的是那种:“我提示一下模型,让它帮我从零做一家创业公司”,那这是一个开放得多、验证难度也高得多的问题。

我的建议是:把它拆解成 agent 可以自我验证的小问题,你只需要在最后验证最终输出。然后随着时间推移,逐步让 agent 承担越来越多、越来越复杂的任务。

人类的思考受限于工具

现场提问者
在消费侧,人类注意力是瓶颈;但在生产侧,对所有构建者来说,真正的瓶颈是“好点子”的质量。

我长期帮助 AI 公司做市场进入,很多时候我看到的现实是:产品本身其实并不值得用户投入注意力。

所以我的问题是:你们能构建什么样的工具,来提升人们提出“好想法”的能力?

Sam Altman
现在很流行把 AI 的输出称为“垃圾”,但这个世界上本来就有大量“人类生成的垃圾”。

提出真正好的新想法,本来就非常难。而且我越来越相信一句话:我们的思考能力,受限于我们所使用的工具。

我认为,我们应该尝试构建能帮助人们产生好想法的工具。这样的机会非常多。

随着创作成本持续下降,我们会拥有极其紧密的反馈回路,这会让我们更快地筛选出好想法。

当 AI 不仅能写复杂代码,还能发现新的科学规律时,我对未来出现一个全新的“可能性空间”是有信心的。

但有一种体验,已经被很多人反复提及:当你坐在一个具有自主性的代码生成器前,却不知道下一步该问什么。这本身,就已经成了一个普遍的问题。

模型已经具备了新潜力:帮助产生好想法

Sam Altman
如果我们能构建一些工具,真正帮助你产生好想法——我相信这是可以做到的——比如回顾你过去所有的工作、代码和思考路径,试着推断哪些方向可能对你有用、哪些东西可能会让你感兴趣,并且持续不断地给你建议。如果我们能提供一个真正优秀的“头脑风暴伙伴”,那会非常有价值。

我人生中大概遇到过三四个人,每次和他们聊完,我都会带着一堆新想法离开。他们并不一定直接给答案,而是特别擅长提问题,或者给你一些可以继续生长的“种子”。Paul Graham 在这方面简直是天花板级别。如果我们能做出一个“Paul Graham bot”,让你可以用类似的方式和它互动,哪怕其中 95% 的想法都会被你否掉,我依然认为,这会显著提升这个世界真正被构建出来的好东西的数量。

而从模型能力来看,它们理应具备做到这一点的潜力。我们内部使用的 5.2 的一个特殊版本,现在第一次开始听到科学家反馈:这些模型带来的科研进展,已经不再是那种“很表层、很简单”的提升了。我很难相信,一个能够提出全新科学洞见的模型,会无法在换一种使用方式、稍作不同训练之后,提出关于“该构建什么产品”的新洞见。

OpenAI掌门人Sam Altman深度分享:AI未来走向、成本曲线与无限智能体内部实践

模型不会被现有技术锁死

Theo(开发者、YouTuber、YC 创业者)
你好,我是 Theo,开发者、YouTuber,也是 YC 的创始人之一。我也非常想要那个 Paul Graham bot。

不过我想问一个偏技术层面的问题。我很喜欢那些“基础构建模块”发生演进的技术变革,我经历过很多 Web 世界里的巨大转折,比如迁移到 TypeScript、Tailwind 等。

我现在有一个担忧:随着模型和构建工具越来越强,我们会不会被“当前的技术形态”锁死?就像美国的电网,当初以某种方式建成之后,反而让后续改进变得异常困难。

你觉得这种风险在 AI 时代存在吗?我们现在是不是正在用当下的技术形态,打下一些未来很难替换的地基?因为即便只是让当前模型去使用两年前更新的一项技术,有时都感觉像在拔牙一样费劲。

你觉得我们未来还能不能足够好地“引导模型”去学习和使用新技术?还是说,我们已经基本确定会被当前这一代技术栈锁住了?

Sam Altman
我其实对模型使用新技术这件事非常乐观。

从本质上讲,如果我们使用模型的方式是对的,它们就是一个通用推理引擎。现在的架构里,它们还内置了大量关于世界的知识,但我认为整体方向是正确的。
我希望,在接下来几年内,模型能够在“学习新工具、使用新技术”这件事上,甚至比人类更快。

一个我们会非常自豪的里程碑是:当模型面对一个完全陌生的环境、新工具、新技术时,你只需要解释一次,或者让它自己探索一次,它就能非常可靠地掌握并正确使用。这件事看起来并不遥远。

OpenAI掌门人Sam Altman深度分享:AI未来走向、成本曲线与无限智能体内部实践

大模型距离自我闭环,还有不远的距离

现场提问者(科学家)
我是一名科学家,年纪也偏大一些。
在科学研究中,一个项目往往会衍生出多个新的研究方向,这些想法是指数级增长的,而一个科学家可支配的时间却是线性下降的。这些工具极大地加速了研究进程,但我们总是还想要更多。
你之前提到过这一点,我想再追问:除了帮助我们在更短时间内推进更多有价值的想法之外,未来是否可能出现这样一个阶段——模型会接管整个科研流程?如果会,这更可能来自现有算法的持续演进,还是需要全新的思想、世界模型之类的突破?

Sam Altman
在大多数领域里,模型实现真正“完全闭环、自主运行”的科研,还有一段不短的距离。
当然,我们可以看一些特殊领域,比如数学,它不需要湿实验室或物理输入。理论上,你只要不停地思考,就能取得巨大进展。但即便在数学领域,目前真正取得最快进展的研究者,也深度参与在模型的中间过程里。他们会看着模型的中间推导说:“不,这条路感觉不对,我直觉上另一条路径更有希望。”
我已经见过一些数学家,他们现在几乎整天都在和最新模型协作,进展非常快,但他们和模型做的事情是不同的。

老实说,这让我想起了国际象棋历史中的一个阶段:Deep Blue 击败 Kasparov 之后,有一段时间,“人类 + AI”的组合比单纯的 AI 更强,人类负责从 AI 给出的十个走法中选最好的那个。但很快,AI 又变得更强,人类反而开始拖后腿。

我怀疑,在很多研究领域里,类似的过程都会发生。随着问题变得越来越复杂,AI 可能会在多步推理上,比大多数人、甚至所有人都更强。

但在创造力、直觉和判断力这些方面,当前这一代模型还远远没有接近人类水平。

OpenAI掌门人Sam Altman深度分享:AI未来走向、成本曲线与无限智能体内部实践

我想不出一个“原则性理由”说明我们永远到不了让AI独立解决复杂问题的阶段,所以我假设终究会到。但至少现在,让 GPT-5 或 GPT-6 直接“去解决数学问题”,肯定还比不过几个顶尖研究者与模型协作、不断判断方向、筛选路径的效果。

在当前真正有效的工作流中,解决一个问题,往往会打开十几个新问题。这正是很多积极使用模型的科学家感到兴奋的地方。他们确实会消耗大量算力,但他们掌握了一种新技能:列出二十个新问题,然后对它们做“广度优先搜索”,而不是在某一个问题上无限深挖。有人把 AI 形容为“无限数量的研究生”,我最近把这个说法升级成了“无限数量的博士后”。

至于自动化物理科学,我们内部一直在反复讨论:到底是为每个领域都构建自动化湿实验室,还是相信整个世界已经拥有大量设备,并且愿意把实验数据贡献回来。从科学界对现有模型的接受程度来看,后者似乎是可行的,而且会形成一个更容易扩展、更分布式、设备类型更多、参与者更聪明的体系。

大模型的安全思路需要转变:从“封堵”转为“韧性”

Emmy(斯坦福学生、生物安全创业者):
你好,Sam。我叫 Emmy,是一名斯坦福学生,也在做一家生物安全方向的创业公司。顺着你刚才关于科学实验和云实验室的讨论,我们团队花了很多时间思考:如何防范 AI 赋能的生物重设计所带来的风险,同时又如何利用 AI 去强化安全基础设施。我的问题是:在你们的 GPT-6 路线图里,安全处在什么位置?以及更广泛地说,你们是如何思考这些问题的?是整体安全,还是更具体的生物安全?

Sam Altman:
你是更想问整体安全,还是生物安全?如果可以的话,生物安全优先。坦率地说,到了 2026 年,AI 可能出问题的方式有很多……

有一个我们确实非常紧张的领域是生物安全。模型在生物相关问题上已经相当强了。目前我们采取的策略——也不只是 OpenAI,而是整个行业——主要还是通过限制访问、加一堆分类器,尽量避免模型被用来制造新的病原体。但我并不觉得这种方式还能持续太久。

我认为,整个世界在 AI 安全,尤其是生物安全这件事上,需要完成一次观念转变:从“封堵”为主,转向“韧性”为主。我的联合创始人 Wojciech 用过一个我很喜欢的比喻,说的是火。火给社会带来了很多好处,但后来开始烧毁城市。我们一开始做的是限制火的使用。我上周末才学到一个冷知识,“宵禁”这个词,最早就来自于禁止夜间生火,因为城市会被烧掉。后来我们做得更聪明了,我们开始提高对火的韧性,制定消防规范,使用阻燃材料,还有一整套配套体系。现在,作为一个社会,我们在这件事上已经做得相当不错了。

我觉得我们需要用同样的方式看待 AI。AI 在生物恐怖主义上会是真正的问题,在网络安全上也会是真正的问题。但同时,AI 也是这些问题的解决方案之一,也能解决很多别的问题。所以我认为,这需要一次全社会层面的努力,去建设“韧性”的基础设施,而不是指望少数我们信任的实验室永远能精准地挡住所有不该发生的事情。世界上一定会有很多强大的模型存在。

我们已经和很多生物研究人员、公司聊过,讨论如果出现全新的病原体,需要具备什么样的能力来应对。很多人对这个问题都非常投入,也有不少反馈说,AI 在这里确实能帮上忙。但这不会是一个纯技术问题,单靠技术解决不了。整个世界都需要用不同于以往的方式去思考这些事。

所以,说实话,我对当前的状况非常紧张。但除了以“韧性”为核心的路径之外,我看不到别的路。而且 AI 的确可以帮助我们更快地建立这种能力。但如果今年 AI 真的出现一次“肉眼可见、非常严重”的失控事件,我觉得生物领域是一个相当合理的猜测。再往后一年、两年,你也可以想象还会有其他很多事情出问题。

OpenAI掌门人Sam Altman深度分享:AI未来走向、成本曲线与无限智能体内部实践

教育方式需要改变,但不应该拒绝AI

提问者 Magna:
你好,我叫 Magna。我的问题和“人类协作”有关。当我们谈到 AI 模型不断变强,它们已经非常擅长帮人快速学习一个主题、一个学科。这一点我们在 ChatGPT 和教育实验室里已经探索过了,我个人也从中受益很多。但我经常会反复想到一个问题:其他人类的角色在哪里?人类之间的协作还重要吗?当你几乎可以随时在指尖得到答案,为什么还要花时间、甚至承受一些摩擦,去问另一个人?

这也和你之前提到的一点有关——AI 编程工具已经能以远超人类团队的速度完成工作。所以当我在思考协作、合作以及集体智能的产出时,我知道“人类 + AI”是一条非常有力的路径。但那“人类 + 人类 + AI”呢?如果这样说得通的话。

Sam Altman:
这里面有很多层意思。我可能比你们大多数人年纪都大一些,但 Google 出现的时候我还在读中学。老师当时试图让学生保证不使用它,因为大家有一种感觉:如果你可以随时查到任何东西,那为什么还要来上历史课?为什么还要背东西?

在我看来,这个想法当时就很荒谬。我反而觉得,我会因此变得更聪明、学到更多、能做更多事情。这就是我成年后要一直共存的工具。如果我不去学会使用它,反而才奇怪。就好像在很多年前,明明已经有计算器了,却还强迫我学算盘一样。那已经不再是一个有价值的技能了。

我对 AI 工具的感觉是一样的。我理解,在我们当前的教育方式下,AI 确实成了一个问题。但这恰恰说明,我们需要改变教育方式,而不是拒绝工具本身。你可以让 ChatGPT 帮你写东西,这就是世界将要运行的方式。你依然需要学会思考,而写作、练习写作,对学习如何思考依然非常重要。但我们教你如何思考的方式,以及评估你思考能力的方式,大概已经发生变化了,我们不应该假装一切都没变。我对这一点其实很乐观。那 10% 极端自学能力很强的学习者,已经在这种环境下表现得非常出色了。我们也会找到新的方式来教授课程,把其他学生一起带上。

你还提到一个问题:怎么让这一切成为一种协作体验,而不是你一个人对着电脑学习、产出、表现得很厉害,却始终是孤立的。到目前为止,我们还没有看到明显相反的证据,这也是我们一直在尝试衡量的事情。我的直觉是,在一个 AI 无处不在的世界里,人类之间的连接会变得更有价值,而不是更不重要。人们会更加珍惜和其他人聚在一起、一起工作的机会。

我们已经开始看到一些人在探索新的交互方式,让这种协作变得更容易。而当我们思考自己的硬件、自己的设备时,其实首先考虑的,可能就是一种“多人协作 + AI”的体验形态。我的感觉是,虽然还没有人真正把这件事做透,但我们会惊讶地发现,AI 在促进这种协作上的能力,远超以往任何一项技术。

你可以想象,五个人围坐在一张桌子旁,旁边还有一个小机器人之类的存在。作为一个群体,你们会变得高效得多。这会成为一种日常状态。每一次头脑风暴,每一次尝试解决问题,都会有一个 AI 自然地参与其中,帮助整个小组做得更好。

OpenAI掌门人Sam Altman深度分享:AI未来走向、成本曲线与无限智能体内部实践

大模型并没有建立真正完善的安全基础设施

提问者:
我的问题是,随着 Agent 开始在生产系统中移动、运行,而且是大规模运行,你觉得目前最被低估的失败模式是什么?是安全、成本、可靠性,还是别的?以及,与之相关的,现在最被低估、但其实最困难、最该投入的工作在哪里?

Sam Altman:
问题到处都是。你提到的一点,其实有两层含义,也让我个人、以及在场很多人都感到意外。

我第一次开始用 Codex 的时候,我对自己非常有信心地说:不管怎么样,我绝对不会给这个东西完全、无人监督地访问我的电脑。结果我大概坚持了两个小时。然后我就想:它看起来真的挺合理的,这个 agent 做事也很克制,我每次都要手动批准这些命令真的很烦,我就先开一会儿看看会发生什么吧。结果我再也没有把“完全访问”关掉。我觉得很多人都有类似的经历。

所以我真正担心的是:这些系统带来的能力和便利性太强了,而失败一旦发生,可能是灾难性的。只是失败发生的概率又很低,于是大家会慢慢滑入一种“算了,YOLO,希望一切没事”的状态。

随着模型能力不断增强,其行为也愈发难以完全理解。如果模型本身存在对齐问题,或者在长期使用中,经过数周或数月逐渐浮现出复杂的系统性问题(例如在构建系统时无意中引入了安全漏洞),风险便会累积。当然,你可以对“AI失控”的可能性持有不同看法,将其想象得更科幻或更保守。

但我真正担忧的是:采用这些工具的压力,以及它们带来的巨大愉悦感和能力提升,可能会让人们来不及认真思考自己是如何运行这些系统的,是否真正理解了自己所搭建的“沙盒”。

我的总体忧虑在于:模型能力会非常陡峭地上升,我们将在某个能力水平上逐渐习惯并开始信任它们,但在此之前,我们可能并未围绕它们建立起真正完善的、宏观层面的安全基础设施。然后,我们就会在不知不觉中步入某个困境。

说实话,我认为这是一个非常值得成立专门公司去深入探索的方向。

奥特曼:幼儿园阶段并不需要大量使用AI

提问者 Claire:
我想回到刚才关于教育的话题。我叫 Claire,是伯克利的大二学生,主修认知科学和设计。我在高中时,就看到身边的同学用 ChatGPT 写作文、做作业。现在到了大学,我们在各个层面讨论 AI 政策、课程设置、CS、人文等等。我想回到更早的阶段,比如幼儿园和中学,那是人真正学会如何解决问题、如何写作、如何思考的时期。作为一名父亲,你怎么看 AI 在这些非常关键的成长阶段,会如何影响、塑造教育?

OpenAI掌门人Sam Altman深度分享:AI未来走向、成本曲线与无限智能体内部实践

Sam Altman:
总的来说,我赞成让幼儿园远离电脑。我认为幼儿园的孩子应该多在户外活动,接触真实的物体,学习如何与他人互动。因此,不仅是AI,我甚至觉得在大多数时间里,幼儿园都不该有电脑。

从发展心理学角度看,我们对技术影响儿童的理解还远远不够。关于社交媒体对青少年的影响已有大量研究,结果看起来相当令人担忧。而我隐约感觉,更早期的技术介入,对更小的孩子可能产生更严重的影响,只是这方面的讨论反而更少。在我们真正理解这些影响之前,我认为幼儿园阶段并不需要大量使用AI。

OpenAI掌门人Sam Altman深度分享:AI未来走向、成本曲线与无限智能体内部实践

3D推理是未来,但不是OpenAI最紧急的方向

提问者 Alan:
你好,Sam。我在生物医药行业工作。生成式 AI 在临床试验文档写作上已经帮了大忙,大大加速了流程,效果非常惊人。我们也在尝试将其用于药物设计,尤其是化合物层面。但目前遇到的一个瓶颈是三维推理能力。你觉得这里会不会出现一个拐点,或者你是否看到未来会有什么突破?

OpenAI掌门人Sam Altman深度分享:AI未来走向、成本曲线与无限智能体内部实践

Sam Altman:
这个问题我们一定会解决。我不确定是否在2026年就能做到,但这确实是一个非常普遍的需求,我们也知道该朝哪个方向努力。只是目前还有很多更紧急的优先事项需要推进,不过这件事一定会实现。

关于大学与个人选择

提问者 Dan:
你好,Sam。我叫 Dan。我刚从伦敦的大学退学,加入了 Y Combinator W26 批次。我有两个快问。第一个是,我父母一直希望我回去把大学读完,你觉得大学在当前状态下,有时会不会反而成为限制?第二个问题是,你还做天使投资吗?

Sam Altman:
我当年退学后,我父母花了整整十年才不再问我什么时候回去读书。所以我觉得父母就是这样,他们爱你,也是在用他们认为最好的方式给你建议。你能做的,就是不断告诉他们:如果哪天我想回去,我随时都可以。但这个世界已经变了,而且会持续变化。

每个人都得自己做决定,而不是完全照着社会期待来。如果你是一个 AI 领域的构建者,我个人认为,在现阶段,待在大学里未必是你时间的最佳利用方式。如果你是一个野心强、主观能动性很高的人,这本身就是一个非常不寻常的时代。你随时可以回去读书,这并不意味着大学对很多人不重要,也不意味着未来某一天它对你不重要。但在当下,你需要先把眼前这件事做好。我觉得他们最终会理解的。

至于第二个问题,我欣赏这种主动争取的精神,但我现在已经不做天使投资了。我其实挺怀念的,只是 OpenAI 的事务已经非常繁重,而且如果我投资的公司恰好是 OpenAI 的大客户,情况会变得有些微妙。所以我干脆停止了。

ChatGPT账号可用于登录第三方AI应用

提问者 Michael:
你好,Sam。我是 Michael,来自 WorkOS,我们主要做认证、身份和登录相关的事情。我有一个功能请求:用 ChatGPT 账号登录。我觉得很多人都会想要这个。

Sam Altman:
我们会实现这个功能。很多人也一直在询问。你具体需要什么?

提问者 Michael:
至少是 token 额度,用户可以带着自己的账号和模型权限过来。但我觉得还有更多,比如我公司可以访问哪些 MCP server,ChatGPT 对我有哪些记忆,我在做哪些项目。ChatGPT 从工作层面、个人层面都非常了解我。我很好奇你们是怎么思考这些信息该如何被开发者使用的。

Sam Altman:
我们确实想把这件事做成,但这同时也非常令人担忧,因为 ChatGPT 确实知道你太多事情了。就像你把很多秘密告诉一个非常亲近的人,你会相信他能理解非常细微的社会语境,知道什么时候该对谁说什么,什么时候该保密,什么时候有别的因素需要优先考虑。

我们的模型现在还没有完全达到那个程度,虽然已经在接近了。老实说,如果现在让我把 ChatGPT 账号连接到一堆网站,然后说“你自己判断什么时候该把我所有聊天记录和我连接过的信息分享出去”,我会感到不太舒服。

但一旦我们真的能做到那一步,这显然会是一个很有吸引力的能力。在此之前,我觉得可以先从一些更可控的方式开始,比如基于 token 配额——如果我付费使用了 Pro 模型,就能在其他服务里使用它,这听起来就是一件挺不错的事。所以我认为我们至少会先做这一层,同时努力把更深入的信息共享这件事做对。因为这件事,我们真的不想搞砸。

OpenAI掌门人Sam Altman深度分享:AI未来走向、成本曲线与无限智能体内部实践

OpenAI会持续招聘软件工程师

提问者 Oleg:
嗨,Sam。我叫 Oleg。我想我们在座的人基本都同意,软件开发这门手艺在最近发生了巨大的变化。但与此同时,我在 LinkedIn 上仍然能看到 OpenAI 在招聘软件工程师。我很好奇,在过去几个月或几年里,你们的面试方式发生了哪些变化?

Sam Altman:
我们还会继续招聘软件工程师。但这是第一次——我知道几乎所有公司、所有创业公司都在思考同样的事情——我们计划显著放慢人员扩张的速度,因为我们相信,用更少的人就能完成更多的工作。

现在我们面临的很多阻碍,其实并不在技术本身,而是在公司内部长期积累下来的各种流程和政策。这些政策从来没有设想过“AI 同事占多数”的情况,而这需要时间去调整。

但我觉得我们不该做的一件事,也是我希望其他公司不要做的,就是先非常激进地招聘,然后突然意识到 AI 能承担大量工作,其实不需要那么多人,最后不得不进行一场非常艰难的裁员对话。

对我们来说,更合理的路径是:放慢招聘节奏,但持续招聘。我并不相信未来某一天 OpenAI 会变成“零员工”的公司。至少在很长一段时间里,我更相信会是这样一种状态:员工人数缓慢增长,但每个人能完成的工作量大幅增加。我觉得这大概也是整个经济体系会呈现出来的形态。

至于面试本身,说实话,它还没有改变到应有的程度。但我今天刚刚参加了一场会议,讨论的正是我们希望它如何改变。我们的理想状态是,把候选人放到一个具体的任务面前:这个任务在一年前,单靠一个人用两周时间都不可能完成,而现在,我们希望看到他们用 10 分钟、20 分钟,或者类似的时间,把事情做出来。

核心在于,你希望通过面试看到一个人是否能够在这种全新的工作方式下高效地发挥作用。软件工程的面试长期以来就做得不太好,也不算特别相关,而现在,它变得更加不相关了。

这里其实还隐藏着一个更宏观的问题:未来会是什么样?是公司只雇佣很少的人,配上大量 AI 同事;还是说,真正胜出的公司会是完全由 AI 构成的——一机架 GPU,没有人类?

我非常希望是前者。虽然有不少理由让人觉得,后者似乎也有可能发生。但如果公司不能积极采用 AI,如果公司不知道该如何招聘那些真正会高效使用这些工具的人,它们最终就会被“全 AI 公司”击败。那种公司不需要遵守大企业里那些阻碍 AI 使用的“奇怪规则”。而那样的结果,对社会来说会是极其不稳定的。

我们一直在思考该如何谈论这件事,因为这听起来很容易显得像是在为自己谋利。但我依然认为,让企业尽快、大规模地采用 AI,真的非常重要。

关于AI创作:人们更在意作者是谁

提问者 Cole:
你好,Sam。我叫 Cole,是一名创作者和电影摄影师。过去一年里,我们已经看到 AI 彻底改变了讲故事的方式,也改变了我们看待自我的方式。在创意领域有很多有意思的尝试,比如 Sora,它把“自我”当成画布,让你可以用 AI 把自己放进各种奇幻场景中。我很好奇,在模型不断进化的过程中,你怎么看待人类创作身份与 AI 辅助创作之间的关系,会走向哪里?

Sam Altman:
目前我们能研究、也最能从中学到东西的,其实是图像生成。它出现得最早,创意社区对它的爱与恨也最强烈。

这里面有很多有趣的观察,其中一个是:当图片的消费者被告知“这是人做的”,而不是 AI 做的时,他们的欣赏度、满意度都会显著更高。我认为,在接下来的几十年里,这会是一个非常深层、持续存在的趋势:我们非常在意“人”,却几乎不在意“机器”。

在所有对 AI 的贬称里,我最喜欢的一个是“clanker”。这个词非常精准地击中了人们的情绪反应。你会看到一些在我看来极其精美、极具创造力的图像,只要你告诉别人这是“clanker”做的,很多人的主观评价就会立刻大幅下降。

OpenAI掌门人Sam Altman深度分享:AI未来走向、成本曲线与无限智能体内部实践

我去年在网上看到过一个实验:他们找来一些人,这些人声称自己非常讨厌 AI 生成的静态图像,而且坚信自己一眼就能分辨哪些是 AI 做的,因为“它们很糟糕”。研究者给他们看 10 张图片,让他们选出最喜欢的。结果是,一半完全由人类创作,一半完全由 AI 生成,而非常稳定地,他们会把 AI 生成的图片排在最前面。等到被告知真相之后,他们又会说,其实自己并不喜欢这些作品,这不是他们想要的。

这其实是在测试一件事:你真正喜欢的是什么。

当我读完一本非常喜欢的书,我做的第一件事,往往是去查作者是谁,了解他的生活经历,看看是什么样的人生把他引向了这本书。我感受到的是一种与陌生人的连接。如果我读完一部伟大的小说,最后才发现它是 AI 写的,我会感到某种失落,甚至有点沮丧。

我认为这是一个非常深刻、也非常持久的趋势。不过,如果一件艺术作品哪怕只是“稍微”由人类主导——至于这个“稍微”有多小,未来人们的感受可能还会变化——大家的情绪反应就没有那么强烈。这类事情其实已经发生了很久,比如数字艺术家使用 Photoshop,人们依然热爱他们的作品。

基于我们目前看到的创作者和消费者行为,我的判断是:创作者本人、他的生活经历、他在创作中的编辑、选择和取舍,都会变得非常重要。总体来说,我们并不会真正想要完全由 AI 生成的艺术作品,至少从图像领域给我们的启示是这样。

OpenAI掌门人Sam Altman深度分享:AI未来走向、成本曲线与无限智能体内部实践

奥特曼:我已经准备好让ChatGPT看自己的整个互联网生活

提问者 Keith Curry:
你好,Sam。我叫 Keith Curry,刚从旧金山州立大学毕业。我的问题和个性化、记忆有关。第一部分是,你怎么看这件事未来的演进?第二部分是,你怎么看更细粒度的控制,比如对记忆进行分组:这是我的工作身份,这是我的个人身份。这样在不同提示下,我可以更有选择性地决定哪些信息被纳入上下文。

Sam Altman:
我们会在“记忆”和“个性化”这件事上全力推进。很明显,人们需要它,而且它能极大提升工具的使用体验。

我自己在这件事上的态度也经历过变化。现在的我,已经准备好让 ChatGPT 看我的整个电脑、我的整个互联网生活,知道一切。它带来的价值实在太高了,我已经不像以前那样感到不安了。我真的希望所有 AI 公司都能非常严肃地对待安全和隐私问题,也希望整个社会都能这样做。因为这种效用太大了——AI 终究会了解我生活中的一切,我不打算阻止这件事发生。

我现在还没准备好戴那种全天候录像的眼镜,那在很多层面上依然让人不适。但我已经可以接受这样一种状态:你可以访问我的电脑,理解正在发生什么,对我有用,并且拥有我数字生活的一个完整映射。当然,我也很懒,大多数用户可能也一样。所以这更像是一个“足够好”的映射。

我不想坐在那里手动把信息分成“这是工作记忆”“这是个人记忆”“这是某一类偏好”。我真正想要、也相信是可能实现的,是 AI 对我生活中复杂规则、关系和层级结构有足够深入的理解,能够自动判断什么时候该用什么信息、在哪里该暴露什么。

这件事我们必须搞清楚,因为我觉得这正是大多数用户真正想要的。

AI时代,最值得学习的技能

提问者 Luan:
你好,Sam。我叫 Luan,是一名来自越南的国际学校学生。我的问题是:在 AI 时代,你认为人们最重要、最值得学习的技能是什么?

Sam Altman:
这些基本上都属于“软技能”。现在已经没有那种像过去一段时间里“学会编程”那样,显而易见、压倒性正确的单一技能了。

更重要的会是这些能力:成为一个高主观能动性的人,擅长产生想法,具备很强的韧性,能够快速适应一个持续变化的世界。我觉得,这些能力的重要性,会超过任何具体的单项技能。而且,它们都是可以被训练出来的。

这也是我在做创业投资之后,感到非常意外的一点:你真的可以把一些人集中起来,用三个月左右、类似训练营的方式,让他们在我刚才提到的这些维度上变得极其强大。这对我来说是一次很大的认知更新。

所以我认为,这些可能才是未来最关键的能力,而且它们的可学习性其实很高。

OpenAI掌门人Sam Altman深度分享:AI未来走向、成本曲线与无限智能体内部实践

Sam Altman:
我们是不是到时间了?好。非常感谢大家今天的到来和交流。我们真的非常希望听到你们的输入,知道你们希望我们去构建什么。

你们可以假设:未来我们会有一个能力是现在 100 倍的模型,拥有 100 倍的上下文长度,速度提升 100 倍,成本降低到原来的百分之一,工具调用几乎完美,并且在长时间交互中保持极强的一致性——我们会走到那一步的。

在这样的前提下,告诉我们你们希望它能做什么。我们会留下来,如果你觉得“我只需要这个 API”“我只需要这种基础能力”“我只需要这种运行时环境”,不管是什么,我们都是在为你们构建这些东西,我们也希望把它们真正做对。

再次感谢大家的到来。

谷歌DeepMindCEO:谷歌最接近AGI的模型是Veo,不是Gemini 3!没有引入广告的计划,曝AI眼镜最新进展:杀手级应用将出现

OpenAI掌门人Sam Altman深度分享:AI未来走向、成本曲线与无限智能体内部实践


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/19275

(0)
上一篇 3天前
下一篇 3天前

相关推荐

  • 李飞飞发布全新世界模型,单GPU就能跑!实时生成永不消逝的3D宇宙

    “AI教母”李飞飞创办的 World Labs 于 2025 年 10 月 16 日正式发布新一代实时生成式世界模型 RTFM(Real-Time Frame Model)。该模型仅用单张消费级 H100 GPU 即可在交互帧率下持续渲染出物理真实、3D 一致且永久存在的虚拟世界,首次把“世界模型”推到了人人都能实时体验的门槛。RTFM 采用自回归扩散 Transformer 架构,不依赖显式 3D 表征,而是从海量视频里端到端“学会渲染”,支持单张或多张 2D 照片生成可无限漫游的 3D 场景。论文、代码与 DEMO 同步上线,被视为空间智能赛道的又一次“ChatGPT 时刻”

    2025年10月17日
    17500
  • 信仰与算法的终极博弈:前谷歌研究员如何向梵蒂冈预警AGI末日危机

    在人工智能技术飞速发展的今天,关于通用人工智能(AGI)可能带来的生存风险讨论已从硅谷实验室延伸至全球最古老的权力中心——梵蒂冈。前谷歌研究员约翰-克拉克·莱文(John-Clark Levin)正领导一场独特的游说行动,试图让天主教廷正视AGI可能引发的“代码末日”,这场信仰与算法之间的博弈,或将重塑人类在智能时代的命运轨迹。 莱文并非普通的科技从业者。作…

    2025年12月2日
    7700
  • LimiX:以2M参数颠覆表格数据建模,清华团队破解深度学习结构化瓶颈

    在人工智能的浪潮中,大语言模型(LLM)凭借其在文本生成、代码编写和多模态推理方面的卓越表现,已成为通用智能的代名词。然而,当我们把目光投向现实世界的关键系统——电网调度、用户画像、通信日志等,这些领域的核心数据往往以结构化表格的形式存在。令人意外的是,在这个看似“简单”的领域,包括LLM在内的现代深度学习模型却频频失手,其性能在多数真实场景下仍难以超越XG…

    2025年11月13日
    7700
  • GPT-5.2发布遇冷:技术跃进与用户体验的鸿沟分析

    OpenAI在成立十周年之际发布了备受期待的GPT-5.2系列模型,官方宣称这是“迄今为止在专业知识工作上最强大的模型系列”,并在多项基准测试中刷新了SOTA水平。然而,发布后短短24小时内,社交媒体上却涌现出大量负面评价,用户普遍反映模型“不通人性”、“安全过度”、“像对待幼儿园小孩”,甚至认为这是“技术倒退”。这一现象揭示了当前大模型发展中一个核心矛盾:…

    2025年12月13日
    8500
  • 谷歌Nano Banana 2预览版深度解析:AI图像生成的新纪元与多模态能力突破

    近日,谷歌下一代AI图像生成模型Nano Banana 2(简称NB2)的预览版在第三方平台Media IO意外亮相,引发了科技界的广泛关注。尽管尚未正式发布,但基于泄露的测试结果,NB2展现出的性能飞跃已足以重新定义当前AI图像生成的边界。本文将从技术能力、应用场景及行业影响三个维度,对NB2进行全面剖析。 在技术层面,NB2的核心提升体现在生成速度、分辨…

    2025年11月9日
    8400