
硅谷向来擅长创造新词汇,也擅长迅速将它们抛弃。
去年,人们还在热议“vibe coding”——一种近乎即兴的编程方式:与模型对话、描述需求、快速生成代码。它代表着软件生产门槛的骤降,也象征着一种轻盈乐观的技术气质。
但在今年的 Sequoia Ascent 峰会上,曾推动这一说法流行的 AI 先驱 Andrej Karpathy(以下简称 AK),却抛出一句更具时代意味的话:“我从未像现在这样,感觉自己落后于编程。”

这并非在夸张地渲染焦虑,而是一次范式层面的预测。
在与红杉资本的炉边对谈中,AK 分享了他对 2026 年技术浪潮的最新思考:不是某个模型升级,也不是某项产品迭代,而是一种更深层的变化——包括软件的定义、工作的结构、人的位置,正在被重新安排。
顺便提一句,AI Ascent 是由全球知名风险投资机构红杉资本(Sequoia Capital)主办的年度 AI 峰会。作为一个汇聚了全球顶级 AI 创业者、科学家和投资人的思想交流平台,AI Ascent 也被视为 AI 行业的风向标。
今年峰会聚焦于 AGI(通用人工智能)的商业化落地和智能体(AI Agents)经济。
LLM:不仅是加速器,更是新物种
技术行业常误判革命的方式,是把新事物理解为旧事物的加速器。
汽车最初被视作更快的马车,互联网早期被视作电子传真机,智能手机刚出现时也被认为只是更好的电话。
AK 认为,大模型正处于类似时刻。多数企业仍把 LLM 当作效率插件:更快写代码、更快总结文档、更快回复客服。
但这只是表层叙事。
他提到一套熟悉的框架:Software 1.0:人写规则;Software 2.0:人训练模型;Software 3.0:人通过提示词编程模型。而 LLM 已逐渐表现得像一种新的计算机:上下文窗口是内存,提示词是程序语言,模型本身是解释器。
真正值得注意的,不是它让旧软件更快,而是它让某些旧软件失去存在理由。
他提到 Menu Gen(餐厅菜单应用),自己用 vibe coding 构建了这个应用,涉及 OCR 识别、数据库映射、图像生成、界面渲染、多层调用链。
现在,只需上传菜单照片并要求模型“把菜品图片覆盖到原菜单上”,大模型便直接输出结果图像。
输入是图像,输出是图像,中间的软件层被蒸发了。
用他的话说,整个 Menu Gen 应用都显得多余——它是在旧范式下工作的,那个应用根本就不该存在。
.md 技能(说明文档)替代 .sh 安装脚本
另一个更有代表性的证据,是他对安装软件方式的讲述。
过去几十年,开发者习惯编写 shell 脚本来适配不同操作系统、依赖项与环境变量。这是一种典型的 Software 1.0 思维:把所有路径显式编码。
如果直接用文字写下安装过程并告诉模型“照着这个做”,为什么还要为软件安装编写复杂的“软件 1.0”式 Bash 脚本?LLM 是英语的高级解释器,能智能地针对你的系统环境进行安装,并完成实时调试。
所以,语言本身成了执行层。这也意味着一个被低估的变化:未来最重要的软件接口,可能不是 GUI,也不是 API,而是可被模型理解的说明文本。
在每一次范式转移中,人们最先想到的总是如何加速或改进现状。但在这里,我们看到了有些功能可能根本不该存在。

解码锯齿智能,从可验证性到经济学
对谈中最耐人寻味的部分,是 AK 试图解释大模型能力的不均匀性。
今天的模型可以重构十万行代码库、发现安全漏洞、完成复杂数学证明,但也可能建议你“步行去 50 米外的洗车店洗车”。
这类荒诞感并非偶发错误,而是系统性特征。他沿用了自己此前提出的概念:Jagged Intelligence(锯齿智能):模型能力并不是平滑增长的曲线,而像参差不齐的山脊线:某些领域陡然拔高,几乎达到逃逸速度(比如数学、编程),另一些领域低得惊人。
他过去给出的解释是“可验证性”。代码、数学、博弈任务容易判断对错,因此适合强化学习优化。模型在这些领域进步迅猛。
今年,他的思考更加深入,多了一个经济学视角:他称之为“实验室关注度”(Laboratory Behavior/Economics)。
实验室资源(算力、数据工程师)是有限的。他们会优先选择那些高价值或可量化的领域。例如,为了让 GPT-4 显得更聪明,实验室决定塞入海量棋谱。这种人为的数据偏移导致模型在某些领域突然起飞,而在那些缺乏数据覆盖或难以验证的常识领域(如洗车的逻辑)依然表现挣扎。

创业指北
如果今天创业者想进入可验证领域,却发现大模型实验室已经在数学、编程等赛道达到逃逸速度,后来者还有没有机会吗?
AK 给出的回答很明确:有,而且主要在垂直领域。 他认为,可验证性依然是当前 AI 最有效的杠杆。
只要一个场景能够构建反馈机制,形成环境或案例数据,创业公司就可以投入强化学习资源,做自己的微调,并获得明显收益。即使前沿实验室没有直接覆盖这些方向,这套方法仍然成立。
通用模型公司解决的是广泛问题,但大量行业价值存在于具体场景。谁掌握真实数据、任务流程和评估标准,谁就有机会做出更强的垂直系统。
当被追问还有哪些领域难以自动化时,AK 表示,最终几乎所有事情都能在某种程度上变成可验证问题,区别只在难易程度。即使是写作,也可以通过多个大模型组成评审机制,对结果进行打分和筛选。
这意味着,很多工作并非天然不可替代,只是还没有被建立起有效的评估体系。AI 创业的关键,也许不是寻找不会被自动化的行业,而是找到那些尚未被转化为训练环境的问题。

智能体原生经济
AK 在采访中提到,未来的产品和服务将不再是孤立的软件,而是由传感器(sensors)、执行器(actuators) 和逻辑(logic) 共同组成的复杂系统。
他指出,今天的大多数数字系统,仍然是为人类设计的,而不是为智能体设计的。 他对此最明显的不满,是开发文档仍在一步步告诉人类该点击什么、配置什么、输入什么命令。
还是以 Menu Gen 项目为例,他指出最麻烦的不是写代码,而是复杂的部署过程。而真正的“智能体原生”标志应该是:人类只需给出一个提示词(如“构建 Menu Gen”),智能体就能自动处理服务关联、DNS 配置并直接上线,无需人类干预。
他认为,未来更重要的竞争力,是让数据结构、流程说明和系统接口对 LLM 尽可能可理解(legible),使智能体能直接读取、执行和协同。
由此,一个新职业正在浮现——智能体工程(Agentic Engineering)。它关注的已不是单纯写代码,而是如何组织多个智能体完成复杂任务,同时保持质量、安全与稳定交付。
这也连带招聘标准发生改变,企业评估的重点将从算法题转向候选人能否借助智能体完成真实项目。
而在更远的愿景里,AK 甚至提出一种激进推演:未来神经网络可能承担大部分计算任务,成为新的主计算层,而传统 CPU 则退居辅助位置,只负责少量确定性任务。

人类剩下什么?
对谈最后,主持人提出一个比技术更古老的问题:教育。当智能越来越廉价,什么仍值得深度学习?
AK 谈到一条让他大受震撼的推文,以致于每隔一两天就会想起它。大意是,你可以外包你的“思考”,但你不能外包你的“理解”。
这或许也是整场峰会中最令人印象深刻的一句定论。在一个智能体能力日益强大的世界里,人类的价值并不会消失,反而更像系统中的导演。
模型能够生成方案、对比选项、执行流程,甚至替你完成写作和推理。但它无法替你承担真正的理解:什么重要、什么真实、什么值得追求、什么风险可以接受。
用他的话说,人依然需要某种东西来指引思考和执行过程,而这种指引能力,根本上受限于你的“理解”。
而AK并不觉得自己特别擅长“理解”——比如我们知道什么、这件事为什么值得做、我该如何指导我的智能体。他认为,自己也在成为一个认知瓶颈。
这也是他为什么热衷于个人知识库、Wiki系统,以及各种能重组信息的工具,因为它们能帮助他增强理解。
每当同一份信息以不同结构呈现时,就会产生新的洞察。他会把读过的文章持续沉淀进自己的知识系统,再不断追问、交叉提问,让固定知识生长出新的理解。
这背后揭示的,或许是学习方式正在发生转变。谁能把海量信息压缩成自己的认知地图、增强理解,谁就更有优势。
关注“鲸栖”小程序,掌握最新AI资讯
本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/32940

