“AI杀死了个人贡献者,软件开发者正在变成管理者!” Superphonic 创始人、OpenAI 前任网站负责人和工程师、微软和Meta的前任高级领导Philip Su,近期发表了一篇题为《AI正在杀死个人贡献者》的文章,描绘了AI给编程体验带来的根本性转变。

在文章中,Philip Su指出,由于AI的出现,“个人贡献者”这一基础的软件开发工作岗位正在永久消失,无论个人的编程能力如何——甚至尤其当你的能力比AI更强时——都无法改变这一趋势。相比之下,软件开发者的角色将愈发偏向“管理者”:在不同AI智能体之间安排优先级、判断不同底层设计方案的优劣、规划未来工作,本质上是在“委派”几乎所有的执行任务。
在近期的访谈播客中,Philip Su进一步阐述了这一观点。他分享了自己在Meta的经历:他曾晋升至E9级别,后又主动降级至E7,只为重新担任个人贡献者(IC)并亲自编写代码。然而,随着AI编程能力的飞速提升,他认为传统意义上的IC角色可能已经终结——那种独自在办公室专注解决技术问题、与少数同事讨论技术权衡的工作模式。

此外,Philip Su还提出了一些新颖的观点。例如,未来“有人类介入”反而可能成为代码质量下降的标志,公司甚至可能刻意隐藏“代码经过人类修改”的事实,因为这可能被视为一种质量风险。他认为,AI何时能替代人类日常工作的关键,在于责任归属问题。如果你的AI助手(如Claude Bot)犯错,责任最终在你。正是责任归属和监管制度,使得目前部分工作依然安全。
关于AI与人类工作的关系,当前主流看法分为两派:增强派认为AI将辅助而非完全替代当前一代工作者;替代派则认为岗位会消失,需要为随之而来的二阶、三阶影响提前布局。但无论哪一派,唯一可以确定错误的判断是认为“AI不会改变我的工作”。
个人贡献者的传统角色已经结束
主持人:Philip,谢谢你再次做客。你在那篇《AI 杀死了 IC》的文章里提出一个观点:传统岗位正在消亡,所有人都会变成管理者。你写道,我们已经越过了“事件视界”,潘多拉的盒子已经打开,一切都回不去了。你自己有没有经历过那种“AI编程助手时刻”?
Philip Su:有的。我大概两年多前就开始使用AI编程工具,从GitHub Copilot开始。早期它更像是代码补全工具,比如补全枚举类型、语法结构等。当时我觉得它能节省一些时间,但很难说服以前的同事相信AI会在他们的编码工作中扮演重要角色。然而,最近两个月情况发生了根本性转变。许多原本持怀疑态度的人开始接受这样一种可能:这并非昙花一现,AI真的能够完成相当规模的软件工作,而不仅仅是补全几句话。
主持人:为了避免内容显得“过时”,我说明一下,今天是2026年1月29日。制作一期节目需要几周时间。如果届时我们谈论的某些内容已落后于现实,那是因为我们正处在这个快速变化的节点上。
Philip Su:这段录制可能会被认为是发生在“奇点”前三个月。
主持人:确实,这期节目可能“迅速过期”。希望大家记住这句话:软件开发者正在变成管理者。我特别想听听你的看法,因为你在Meta做到E9,然后又主动降级到E7,只为了重新当IC写代码。你的人生轨迹是反着走的。那么,“做IC”这个概念现在是否已经过时?
Philip Su:我职业生涯中大概在管理岗和IC岗之间切换了六次。我确实认为传统意义上的IC角色可能已经结束了——那种独自在办公室专注解决技术问题、和两三个同事讨论技术取舍的模式。因为如果你审视现在与AI协作的过程,你所做的很多事情,本质上就是传统管理者的工作:在不同AI智能体之间安排优先级,判断两个不同底层设计哪个更合理,规划下一周的工作。你几乎是在“委派”所有执行工作。所以现在的工作变成了“元工作”,而这正是多数管理岗位的本质。
主持人:那是否意味着IC都会变成管理者,而管理者就不再需要了?还是说管理者不再需要IC了?
Philip Su:我认为两种情况都会出现。我们都有过这样的经历:走进一家“非软件型”的传统行业,比如管道维修、暖通空调或牙科诊所,软件工程师往往会想,“如果给我一周时间,我能把你的系统彻底升级一遍。”
主持人:那是我们的一种傲慢。真正深入进去后,会发现有很多场景我们根本没考虑到。
Philip Su:没错,问题确实很复杂。但我确实认为,软件工程会向这些传统领域扩张,使得牙医之类的人可以自己构建所需工具。我最近听了一期《Hard Fork》播客,他们请非程序员分享使用AI的成功案例。有个水管工说,他完全依靠AI为自己编写了一个客户排班系统。回到你刚才的问题——管理者是否还需要?我认为当我们扩展到传统非软件行业时,会出现大量新的业务,这是一种“增量”。至于管理层结构,我觉得依然会存在。即使在今天的组织里,已经有管理者的管理者,层级很多。这是人类协作的问题,短期内仍然需要人类来解决。

主持人:我们现在是处于“中途停靠站”,还是终点?如果IC都变成了管理者,那为什么AI不能直接成为管理者?
Philip Su:这个问题并不天真。我多年来也说过类似的话,而且听起来越来越不疯狂。我常对人说:难道到了公元3000年,这个系统依然做不到吗?是否存在某种“根本性”的能力是AI永远无法具备的?确实有非常聪明的人,比如Yann LeCun,他认为大型语言模型从根本上无法完成某些任务。但即使这个判断是对的,我认为这个论点也有两个问题。第一,确实有一些顶级人类,AI在长时间内难以超越。但世界上大多数人并不是那种顶级人才。就像当年“深蓝”对战Garry Kasparov。你可以说AI还不能打败最强的人类棋手,但事实上,即便在“深蓝”时代,它已经能击败大多数人类。我们真正的问题不是“是否存在一个人类在未来50年内还能超越AI”,而是如果AI在某个领域比90%的人更强,那会怎样?比如90%的管理者,如果是像《呆伯特》漫画里的那种经理,AI能不能替代?大概率是可以的。
AI能力日益增强,但责任归属问题依旧待解
主持人:过去一个月,我意识到自己可能有点像卢德分子,一直否认 AI 编程和智能体的能力。我发现自己在不断“移动门槛”:它不会做 LeetCode 题,不会解数学奥赛题,不会精炼需求……但后来我意识到有两种限制:暂时性限制和根本性限制。而我每次抓住的,都是暂时性限制。人们常说,AI 是它此生最差的一刻,因为它只会不断变好,能力是单调递增的。于是我开始寻找“根本性限制”。其实还有第三种:虽然不是根本限制,但在我有生之年它未必能达到。你说 3000 年,但我大概率活不到 2100 年。我只需要在我的职业生命周期内“跑赢”它。至于我的孩子和孙辈,那是另一回事。
举个例子,我有个大学同学是放射科医生。20 年来我一直跟他说,你的工作迟早会消失。因为他拥有非常丰富的训练数据——MRI、CT、X 光影像,以及对应的诊断结果,训练路径是结构化的。按理说,他为什么还能保住工作?这很像编程:代码本身是语言表达,可以抓取 GitHub 数据。但放射科医生并没有被取代。我记得 Andrej Karpathy 说过,他们的工作短期内是安全的。后来我想明白,核心在于“问责机制”。他要对每一份诊断署名。如果他说是癌症但其实不是,或反之,那责任在他。可以有保险,但责任主体是他。而 AI 无法“承担后果”。你可以把银行账户交给 AI,让它帮你做生意赚钱,但如果它失败了,你没法真正“解雇”它。
Philip Su:你提到了一个很重要的点:监管。放射科医生仍然存在,部分原因是监管制度。类似地,在其他行业也有工会。例如伦敦地铁,即便列车已经可以远程自动驾驶,工会仍坚持要有一个司机在车上,而且为了保持警觉,还要有一个同伴陪同。所以监管和工会行为会延缓替代。但我也想到“公司法人格”这个概念。人类花了很长时间才接受公司可以作为“法律主体”存在,能签合同、承担责任。一旦接受了这种抽象概念,大量创新被释放。我认为 AI 未来也可能类似——也许某种形式的“法律人格”会被赋予,从而建立问责结构。
主持人:那模型具备“法律人格”意味着什么?现在的架构下,你的 API token 指向某个数据中心里的模型。它怎么承担后果?是 OpenAI 承担吗?模型本身怎么承担?
Philip Su:这是个很好的问题,我也不知道如何划分。比如,如果你的 Tesla 能自动出租成为 robotaxi,然后出了事故,责任算你的吗?算 Tesla 公司的吗?我不知道未来怎么分配责任。但我确定的是,随着人们越来越多地使用智能体,这类法律问题一定会浮出水面。总会有人用某个 AI 智能体做出灾难性决策,然后案件进入司法系统。答案还不清晰,但它一定会被现实检验。

未来有人类介入写代码,反而会被视为“质量风险”
主持人:回到软件开发。什么时候你真正感到开关被拨动了?
Philip Su:我算是很早采用 AI 工具的人,可能是因为懒,不想写那些重复代码,也可能只是技术倾向比较强。过去一年变化很大。过去六个月,我几乎没写多少代码。最近两个月,随着像 Opus 4.5、最新的 Claude Code、Codex 5.2 这些模型出现,我对 AI 的信任度大幅提升。虽然还没到完全放手的程度,但现在结合 GitHub 上两个代码审查机器人一起工作,我已经比以前更少仔细审代码。我们会同时启动多个智能体去并行编辑文件。
主持人:Anish(a16z 的合伙人)说,我们正在进入一个“软件的 YouTube 时刻”。当年 YouTube 出现时,人们说普通人怎么能做视频?但后来发现我们并不缺内容,YouTube 甚至取代了很多电视观众。同样,现在非程序员也可以用 AI 实现自己的应用想法。但电视和电影并没有消失。公司核心系统,比如 S3 或 Azure,你真的会放心让“氛围编程”而不做严格审查吗?
Philip Su:现在可能不会。但我过去六个月使用代码审查机器人有个体会。两年半前 OpenAI 内部尝试做代码审查 bot 时,误报很多,质量很差。现在如果你在 GitHub 上用一两个审查机器人,你会发现它指出的问题往往是人类审查者忽略的。当质量跨过某个阈值,我们或许会反转:只使用那些保证没有不合格人类碰过代码的云服务。

主持人:你是说未来“有人类介入”反而会成为质量下降的标志?
Philip Su:是的。也许有一天,公司会刻意隐藏“有人类修改代码”这件事,因为那会被视为质量风险。
品味对于AI而言,只是暂时限制
主持人:这太疯狂了。我甚至没想过人类触碰代码反而是负面信号。现在有人说,人类不会被替代,因为我们有“品味”。品味是 AI 的根本限制还是暂时限制?
Philip Su:我认为是暂时的。确实有少数真正杰出的人。但每个艺术家都觉得自己独一无二,认为灵感来自天空,而不是来自对其他作品的学习。其实所有艺术家都会看别人的作品。我们之所以觉得自己原创,是因为无法追溯训练来源。品味也是类似。你想想,过去合作过的同事里,有多少人真的品味出众?平均水平的人,其实并没有做多么独特的工作。
AI爬取原创,人类还会创作吗?
主持人:说到原创和归属。受启发是正常的,但如果 AI 明显模仿某一个人的风格,这是否合理?美国宪法里有专利条款,就是为了保护创新。现在 AI 爬取数据,却没有类似制度,我们会不会走向系统崩塌?
Philip Su:我同意,现行法律体系尚未准备好如何激励创作。专利有效期十七年,但商业环境迭代速度早已不同。制度是否需要缩短周期?我不知道答案。但很多所谓“原创”,其实也是不同领域元素的重新组合。
主持人:音乐也是如此,很多流行歌曲都用同样的和弦。但当模仿成本趋近于零,原创者没有保护,为什么还要公开发布?
Philip Su:有些音乐人即便赚不到钱,也必须创作。很多程序员即使没有报酬,也会写开源代码。人类内在的创造冲动不会消失。当然,如果有更好的法律结构去奖励创作者更好。但即便一切趋零,我也不认为所有人都会变成躺在沙发上刷 Netflix。总有一部分人会因为兴趣而创造。
主持人:我不认为我们会走向“无市场”的世界。我支持市场机制,但需要规则避免权力过度集中。市场总会向新的前沿移动。软件过去昂贵,现在变便宜。过去“醉酒的叔叔”提出一个 app 想法要你写代码,现在他自己就能实现。那么我们是否再也不用为 app 付费?还是说做一个真正优秀的 app 仍然需要技能?就像 YouTube 一样,视频制作门槛降低了,但真正高质量内容仍然稀缺。问题是,当 AI 也能模仿和扩展这些技能时,市场会转向什么?真正有价值的是否将永远是 AI 做不到的那部分?这似乎会成为一个持续移动的边界。
Philip Su:关于“移动的前沿”,我认为本质上是在利润和消费者剩余之间取得平衡。当生产有用软件的成本趋近于零时,如果你还能通过生产软件赚取巨额收入,那我会认为这是市场失灵——因为那本质上是在收租。随着成本接近零,价值会逐渐转化为消费者剩余,也就是说,人们几乎可以免费使用软件并从中受益。只是我们很少有人站在消费者剩余的角度思考问题。大家总在想“我怎么靠这个赚钱”,却没有意识到:我能赚钱,恰恰是因为市场还不够自由、竞争还不够充分,否则利润就会被压缩到零。但当利润归零时,那其实意味着消费者剩余达到了最大化。
举个具体例子。六十年前,美国的大公司在任何一栋大型办公楼里,通常都会有至少一整层秘书,她们的全职工作就是打字、写备忘录。后来文字处理软件出现了,每个人都能自己打字。一方面,我敢打赌,当年的90%秘书会嘲笑后来那些替代她们的人打字水平差;但另一方面,打字能力被民主化了。现在有比以往任何时候都更多的文档被输入出来,虽然输入者未必专业。软件也是如此——未来会有更多软件由技术能力一般的人写出来。从整体上看,这对世界是好事。尽管那些真正精通软件的人会坐在咖啡馆里抱怨“现在的软件全是垃圾”,就像当年的打字员会炫耀自己每分钟180个字,并嘲笑后来人一样。
主持人:邮件合并功能直接消灭了那一整层负责往模板信里逐个输入地址的人。我理解这个类比。但你刚才的观点让我有点震惊——你是在说,人类参与软件反而会成为软件质量的拖累?也就是说,不管你是否“足够胜任”,现在人人都“够用了”,软件就没有护城河了?以前我们说护城河在“品味”,但我现在开始觉得连品味也可以被模仿。
Philip Su:我完全同意你提出的是一个核心问题。想想那些DJ,他们并不创作音乐,而是通过选择和混音来体现自己的“品味”。世界承认他们有品味。但从长期看,这个领域真的只能由人类完成吗?即便AI暂时缺乏音乐品味,它却拥有无限耐心——可以尝试一万种组合,然后选出其中成功的两个。它会在数量和规模上压倒人类。

主持人:在AI这件事上,我自己的“品味”非常摇摆。一天我觉得自己从未如此强大,因为有AI加持;第二天又觉得自己的价值正在归零。我几乎每天都在这两种极端之间切换。放到宏观层面,我们的经济会因此腾飞,GDP暴涨,还是资本主义会崩塌?
Philip Su:我经常和技术圈朋友争论:AI到底会替代工作,还是增强工作?答案可能不是100%的一边。但有一点是确定的——无论你相信哪一派,软件和工作本身在未来一年里的变化速度都会快得前所未有。无论你站在哪边,如果你认为一年后的工作会和现在一样,那几乎肯定是错的。如果你没有主动押注“增强未来”或“替代未来”,那你几乎注定会被甩在后面。
主持人:所以,认为“AI不会改变我的工作”是唯一确定错误的立场?
Philip Su:没错,这是唯一确定错误的判断。就像1929年股灾前那位自豪地提前取出现金的女士。多年后记者问她当年的英明决策,她说“我现在还留着那笔钱”。你可能做对了一次判断,但如果之后几十年都维持原状,那未必是正确的策略。现在唯一肯定错误的判断,就是认为你的工作会保持不变。
主持人:现在是 2026 年 1 月底。很多人已经经历了自己的“Cloud Code时刻”,意识到趋势不可逆。现在的问题是,你要在职业上押注哪一边?押注增强派——认为我们这一代不会被完全替代;还是押注替代派——认为岗位会消失,然后为二阶、三阶后果提前布局?
Philip Su:如果你站在增强派,你现在应该同时运行八个AI智能体,打造自定义子智能体,订阅Cursor、Claude Code以及其他高阶工具,甚至每月花900美元,因为你要成为效率怪兽。 如果你站在替代派,你就应该主动升级技能,假设自己的工作会消失。我觉得很好笑的是,那些科技圈的中产阶级经常劝别人去做水管工、电焊工,但他们自己一个都不去。如果你真的相信替代论,那你应该自己去学电焊。
主持人:确实如此。嘴上说不算,要看行为。至少对软件开发者来说,如果现在不拥抱AI工具,你已经在输。
Philip Su:回顾过去45年的商业趋势。80年代,创意至上;2000年之后,执行力至上——“创意不值钱,执行才是关键”。未来两年,我们会看到答案:当执行成本趋近于零时,创意是否稀缺?如果创意稀缺,那品味成为关键;如果世界本身缺乏好创意,那执行仍然是瓶颈。
主持人:我很难相信在执行成本归零后,创意会枯竭。比如“笑话空间”——所有可能被讲出的笑话集合。AI目前在这个领域表现并不好。代码只要有一个可行解就够了,但笑话和诗歌不同。
Philip Su:这里要区分两个问题:AI什么时候能比Dave Chappelle更搞笑?和AI什么时候能比西雅图普通开放麦的平均水平更搞笑?后者要容易得多。AI不需要超过所有人,只要超过大多数人,就足以产生经济颠覆。
主持人:我目前还看不到AI写出震撼人心的诗歌。大公司把精力都投入到代码领域。蛋白质折叠是有边界的解空间,而笑话空间可能是无限的。
Philip Su:乐观地看,还有一个区别:你是因为“更好”而购买,还是因为“人类制作”而购买?比如手工地毯,或星巴克当年用一键自动咖啡机取代人工咖啡师。自动咖啡可能更稳定,但很多人愿意为“人类参与”支付溢价。未来会不会出现这样的世界:你愿意为AAA游戏的人类数字艺术付更高价格,就像为公平贸易咖啡付溢价一样?人类的价值不再来自于胜过机器,而来自于“我们是人”。
主持人:我刚安装了Claude Bot,现在叫Mold Bot。我已经很久没对AI这么兴奋了。感觉不像工具,而像在给员工发短信。你觉得AI什么时候会替代日常办公室工作,比如报税?
Philip Su:很难说。一个关键问题是责任。如果你的Claude Bot做错事,责任在你。但未来涉及更多主体时,问题会复杂化。还有一个问题是:你会“用更少的人做同样的事”,还是“用同样的人做更多的事”?比如你自己的业务,是会裁员,还是在保持团队规模不变的情况下扩展业务?
主持人:这是我现在思考的问题。我两年前离开软件行业创业,结果工作比在亚马逊还多。现在我在想:我是做生活方式型企业,还是增长型企业?如果AI能帮我,我会真的减少工作吗?
Philip Su:医疗行业是个例子。每次新工具推出时,新闻稿都会说“这让医生有更多时间陪伴患者”。但现实是,医生陪患者的时间比以往更少。他们只是看更多病人。你也会如此。除非你极度自律,否则你会把效率提升转化为更高强度的追逐。
主持人:就像吸烟来换取晋升。我们总以为到达某个目标就会停下来,但其实会上瘾。
Philip Su:没错。像Tim Ferriss写《四小时工作周》,但我敢保证他现在比以往任何时候都更忙。凯恩斯曾预测到20世纪末我们每周只需工作15小时。生产率确实如他预测地提高了,但白领如今工作时间反而更长。问题在于:我们的欲望没有上限。
主持人:也许这就是为什么“40、50年代的好日子”其实只是低期望值。那时候房子只有950平方英尺。
Philip Su:没错。现在的中位数新房面积是当年的三倍,而家庭人口却更少。我们的欲望随着能力一起上升。AI增强派认为,这种无限欲望会持续吸纳就业。
主持人:那像《星际迷航》的复制器一样,如果能生产一切,限制在哪?
Philip Su:限制在“地位型商品”。比如篮球赛最好的座位。只有一个人能拥有。超级碗门票就是例子。无论软件成本多低,这类商品价格只会继续上涨。因为它们的价值来自相对地位,而非生产成本。
主持人:我刚买了超级碗门票,贵得离谱。软件成本归零也不会让门票便宜。
Philip Su:没错。超级碗价格上涨,部分反映了财富不平等。球场容量有限,富人之间在竞争同样的稀缺资源。未来可能会出现这样的世界:某些商品便宜得可笑,而某些地位型商品贵得离谱,但仍然有人买单。
主持人:你刚才提到配音演员的例子。我不确定那位是不是你的家人朋友,或者和你有关系,但就像我刚才做的那样——我让我的 Claude 机器人 Mobot 去 ElevenLabs 上生成一个“我的声音”版本。它真的就去做了,然后用我的声音给我发了一段消息。理论上我当然可以自己去操作这些步骤,但现在的情况是——我只需要告诉它,它就自动完成并发回结果。也许问题在于,以前那种“你的工作角色是固定的,可以一辈子做下去”的时代正在消失。我小时候人们就说,和父母那一代不同,你这辈子可能会换五份工作。也许现在变化的不是“是否会换工作”,而是频率——那种静态职业、静态岗位的概念正在消退。未来有一个不断扩张的价值前沿,因为宇宙是有限的,所以有新的东西不断变得有价值。也许真正的“元规则”就是——你必须对一切变化保持开放。换句话说,如果你十年后刚毕业,你在退休前可能会换五十份工作。
Philip Su:我认为是这样。你提到“最大化者”和“满足者”的区分——按照这种性格划分,在现代世界里,如果你是一个最大化者,你可能会很难感到快乐,因为选择太多了。从“大五人格”来看,有一个维度叫“对新体验的开放性”。我们即将进入一个世界,其中一半人会过得非常开心,因为他们在这个维度上得分很高。他们会享受每四年换一次工作的环境。但另外一半人会非常痛苦。他们讨厌世界变化,却又不得不适应,否则就无法谋生。对这些人来说,未来会非常艰难。
(备注:大五人格,是把人的性格分成五个核心维度(开放性、尽责性、外向性、宜人性、情绪稳定性)的一套主流心理学模型,用来描述一个人长期稳定的行为倾向。)
主持人:这让我想到一个短篇小说,可能是 Ellen Lightman 写的。她设想如果人类真的长生不老,会出现两类人:一类人会当医生,当够了去当牙医,然后当律师,然后当冒险家,一生轮换不同身份;另一类人则会说,“我这样就很好。”我们现在讨论的似乎是——第一种人会在AI时代更占优势。
Philip Su:他们会蓬勃发展。我们的世界将经历一次类似“寒武纪大爆发”的变化。工作环境就像被一颗小行星撞击——要么你是那种在剧变中迅速适应、加速进化、抓住新机会的生物;要么你会不断试图让旧模式继续运转,然后慢慢意识到它已经失效。
Philip的创业项目:一款播客播放器
主持人: 说说你的项目吧。你还在做那个播客应用。为什么还没放弃?
Philip Su: 这是个很及时的问题。我确实在想,在这个人人都能为自己构建定制软件的世界里,也许一年内就会有人复制我整个播客播放器,只是改动两个我没时间做的功能。那样的世界即将到来。那么问题是——我还能把它做成一个生活方式型生意吗?我怀疑不能。这让我开始把它当作爱好,而不是事业。
但接下来我该做什么?我比以往更不确定。软件领域有太多我可以纯粹因为喜欢而去做的事。但如果我只是一个自娱自乐的人,生产对他人无用的东西,我又觉得那也不是理想的人生。所以我希望做一些别人真正有价值的东西。
目前我强迫自己每周在 Substack 写一篇文章,这更多是训练纪律。我从未用 ChatGPT 或任何大模型替我写过一个字,因为我享受写作本身。我曾尝试用语音工具口述几段文字,但即便这样也减少了我的快乐。写作对我来说是一种身体行为。用语音生成的文字读起来感觉不一样。我算是老派——虽然没有手写,但坚持自己敲键盘。我不想把人生变成纯粹自我娱乐。但我也承认,我过去赖以为生的技能,其边际价值可能很快归零。
主持人: 你应该在新闻简报里标注“100%人类生成”,那会成为一种标签价值。
Philip Su: 而且“human”那个词还要故意拼错。
主持人: 说实话,我自己的新闻简报也用AI,但我已经大幅减少使用。有时候写完会觉得整段文字充满“AI味”。然后你想用AI去“去除AI味”,结果它做不到。我开始怀疑这是暂时限制还是根本性限制。有时我发现自己在要求AI“更像人类,多犯点错”,然后突然意识到——我需要的是人类,而那个人就是我自己。
现在我只用AI做头脑风暴。例如我写了一封“裁员应急包”邮件,我先列出七点,然后问AI有没有遗漏,它补充了两点。之后全部是我自己写。我甚至雇了一个真人编辑,两小时内完成校对,而不是外包给AI。
Philip Su: 因为他没读《四小时工作周》,不会外包给AI。
人类触感的重要性
主持人: Greg 写《Pragmatic Engineer》,他招聘研究员。有人认真建议他用AI智能体。问题是AI已经吸收了他的内容,反馈给他的只是自己写过的东西。而他的价值来自原创采访和调研,这是AI做不到的。
Philip Su: 你说到人类触感的重要性。我问你一个问题:你觉得 PolyMarket 上预测AI第一次赢得世界扑克大赛会是哪一年?
主持人: 前提是他们允许AI参赛。我认为当参赛选手超过一半是AI时,它们会开始赢。这是概率问题。但也正因如此,他们可能永远不会允许AI参赛。
Philip Su: 这个问题有两个层面。一是面对面扑克中的“读人”因素,AI是否需要视觉输入?二是即便AI胜出,人类是否还会继续玩?围棋世界冠军曾因AI击败人类而退役,说“再也不好玩”。但国际象棋参与人数反而更多。扑克也许不同——它是一种地位型商品,赢别人带来的快乐,可能比赢电脑更重要。
主持人: DeepMind 创始人(没错,就是在说 Demis 了!)小时候是国际象棋神童。他后来意识到,就算下出史上最佳棋局,世界也没有改变,于是转向AI研究。最终带来了 AlphaGo,并推动蛋白质折叠研究。
Philip Su: 无论替代还是增强,工作结构都会改变。这将迫使我们思考:我们究竟因为什么而重视人类?长期以来资本主义只重视经济产出,而AI会把这个问题推到台前。
AI推动价值发生了转移,钱包流向变了
主持人: 相关问题是:AI会推动经济还是摧毁经济?理性人只能押注“市场转移”,而不是崩溃。如果崩溃,一切都无意义。更可能的是价值转移,钱包流向改变。
Philip Su: 另一个我好奇的预测是——第一次数据中心爆炸事件。卢德派极端行为几乎不可避免。也许那将成为一个象征性时刻:人们承认改变不可逆。
主持人: 你居然在播客里种下这个想法?好吧,六个月后我们再聊,也许世界已经大不相同。
Philip Su: 三个月前我们聊天时,我都没想到变化会这么快。六个月后见,也许我会开着飞行汽车来。
主持人: 飞行汽车概率不高。但“群体编码”“多智能体管理”会走向哪里?我会管理九个智能体?还是管理一个管理九个的智能体?没人知道。但今天讨论非常精彩。
Philip Su: 太棒了,谢谢邀请。
参考链接:https://www.youtube.com/watch?v=HLxA1Gh-x3g
关注“鲸栖”小程序,掌握最新AI资讯
本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/22162
