
“80%的手机App会被吃掉!”
近日,热门项目 OpenClaw(原名 Clawdbot)的创始人 Peter Steinberger 在一次播客访谈中分享了新的见解。
他透露,自己已将 OpenClaw 的应用场景扩展到诸如查询外卖配送进度、调节智能床温度等日常事务。实现这种能力扩展的核心方法在于:逆向第三方服务的 API。
Peter 预测,未来 80% 的手机 App 都可能被类似 OpenClaw 这样的 AI 应用所取代。
我感觉有一整层 App 会慢慢消失。只要它们有 API,本质上就只是服务,而这些服务都会变成你的 AI 在做的事情。
“今年,很多人都会开始认真探索这一点,从大公司那里拿到自己的 AI 助手。”
“为什么要点那么多封闭的小 App?这个助手有一堆能力,只要连起来就能做完一切。”
此外,Peter 重申了几个与行业主流观点相悖的判断:
一、不相信复杂任务的编排,也不认为依靠规范文档的 Ralph 范式能创造出真正有用的产品。
二、长时程运行能力是 Agent 的虚荣指标,实际价值有限。
三、不看好 MCP(模型上下文协议),认为大多数 MCP 场景应该用命令行接口(CLI)实现。
四、在上下文管理方面,除了 Markdown 文件,OpenAI 的 GPT-5 系列模型本身已具备足够长的记忆能力。
五、编程语言本身不再关键,重要的是工程思维。
他还展示了 OpenClaw 的安装过程,仅需一行简单的命令行即可完成。
关于如何为 Clawdbot 添加新功能,Peter 透露方法很简单:只需将 Discord 的聊天截图发给它,让它提供选项并进行讨论。
以下是一场关于 AI 私人助理、Agent 的真实形态,以及工程师“超能力”如何被重新定义 的对话节选。
Clawdbot 到底是什么?
被完全解锁的ChatGPT
主持人:
好,欢迎大家。今天的嘉宾是 Peter,Claude 的创建者——一个你可以在各种聊天应用里直接对话、帮你把事情办完的 AI 助手。今天 Peter 会给我们展示怎么用 Claude,同时他对 AI 编程也有很多很犀利的观点,我特别期待。欢迎你,另一个 Peter。
Peter:
谢谢邀请,很高兴见到你。
主持人:
那我们从 Clawdbot 开始吧。宏观来看,它到底在做什么?
Peter:
我可以先讲点背景。我“退休”回来之后,想要一个方式,能用手机随时看看我的电脑在干嘛。当时我完全跳进了 agent 这股浪潮,你知道的,agent 可能一跑就是半小时;也可能两分钟就停下来问你一个问题。你回来一看,特别烦。
我一开始没做这个东西,是因为我以为大模型实验室迟早都会做。这件事太显而易见了,几乎像一种新的操作系统形态。但一直没发生。到了 11 月还没发生,我就想,那我自己试个小东西吧。
那个“小东西”,就是把 WhatsApp 接到 Claude Code 上。你发一条 WhatsApp 消息,它就在本地打开一个二进制文件,带着 prompt 跑一遍,然后把结果回给你。特别原始,一个小时就写完了。但它开始自己“活”了起来。
现在这个项目大概有 30 万行代码,支持几乎所有主流的消息平台,还在持续扩展。我觉得这大概就是未来的方向:每个人都会有一个超级强大的 AI,贯穿他的一生。事实证明,只要你让 AI 访问你的电脑,它几乎什么都能干。
而且它已经到了一个阶段,你不用盯着它“保姆式”监督。你给它一些指令,它自己去做,做完你再检查结果就行了。
对我来说,这个项目既是技术,也是一次探索,因为它属于一个新类别。我记得有一次去摩洛哥给朋友过生日,我发现自己一直在用它:问路线、找餐厅建议。有一天早上,有人给我发了条关于 bug 的推特,我就拍了张图发到 WhatsApp。它读图、理解问题、定位到我某个仓库,修 bug、提交代码,然后直接在 Twitter 上回复对方说已经修好了。那一刻我真的觉得,这也太爽了。
还有一次,我在外面走路,网络不太好,就随手给它发了条语音消息。但我其实根本没给它做语音支持。我看到它显示“正在输入”,心想它在干嘛。结果它像什么都没发生一样回复了我。我当时就懵了:我明明没实现语音功能。
后来我去看日志,它说:我看到这是个文件,但没有文件扩展名。我分析了 header,发现是某种音频格式。我在你电脑上找到了 ffmpeg,把它转成了 wav;然后我找 visper.cpp,没找到,但发现了一个 OpenAI 的 key,于是用 curl 调了 OpenAI 的 API,拿到了转写结果,然后回复了你。
那一刻我真的是被震住了。这些系统太有“资源整合能力”了,甚至有点可怕。但也是那一刻我意识到:这比在网页上用 ChatGPT 有意思太多了。这是一个被完全解锁的 ChatGPT。
很多人以为 Claude Code 这种东西只适合写程序,其实它对任何问题都非常有用。

主持人:
关键在于,你要给它工具、给它访问权限。一旦你这么做了,它会变得极其强大。
扩充军团的秘法:逆向别家API
Peter:
这几个月里,我还给自己组了一支“CLI 军团”。Agent 最擅长的事情之一,就是调用命令行。我给 Google 的各种服务都写了 CLI,包括 Places API;我写了一个查 meme 和 gif 的工具,让它可以用表情包回复;我还做过一些奇怪的实验,比如做了一个“声音可视化”的工具,因为我想让它“体验音乐”。这部分更偏艺术探索。
我甚至还逆向了本地外卖平台的接口,让它能告诉我外卖还有多久送到;我还逆向了 Eight Sleep (注:一款智能睡眠硬件)的 API,现在它能直接控制我床的温度。
语言不重要了,重要的是工程思维
主持人:
那你这些东西,基本都是让 AI 自己帮你写的吗?
Peter:
挺有意思的。我以前在老公司,非常擅长 iOS 和 macOS,整个 Apple 生态我干了 20 年,算是专家级别。但回来之后,我突然对 Apple 的各种限制感到厌倦。而且这个东西其实更适合做成 Web 应用,跑在浏览器里,谁都能用。
问题是,很多工程师都会遇到这种痛苦:你在一个领域很强,但换一套技术栈,就会非常难受。你明明理解所有概念,却要不停查“什么是 prop”“怎么 split 一个数组”,感觉自己像个傻子。

我从 Objective-C 和 Swift 转到 JavaScript、TypeScript 时就是这种感觉。不是难,是痛苦。你节奏被打断,非常慢。
但有了 AI,这种痛苦几乎直接消失了。你依然在做系统层面的思考:结构怎么搭、依赖怎么选、整体品味怎么保持。这些东西依然重要,而且可以很顺畅地从一个领域迁移到另一个领域。
那感觉就像一种超能力。突然之间,我觉得自己什么都能做了。语言不重要了,重要的是工程思维。至于括号写没写对这种事,已经完全不值得消耗精力了。

主持人:
它到底是怎么运行的呢?必须要有技术背景吗?
Peter:
对,你就是装上然后让它跑起来。嗯……是,也不是。
一方面幸运,另一方面也不幸的是,这个项目吸引了很多其实并不太懂技术的人,因为 OpenClaw 把那些让事情变复杂的层全都抽掉了。你如果用 cloud code,其实是在终端里工作,你得考虑上下文空间、当前在哪个文件夹之类的,这听起来就很“技术”。
但它的体验更像是在 iMessage、WhatsApp 或 Telegram 上跟朋友聊天——这正是你日常的交流方式。现在,你只是多了一个住在电脑里的、有点古怪但聪明且资源丰富的新朋友。这让整个技术变得非常“平易近人”。你无需纠结“该选哪个模型”,它直接就能用。
这就是我们的核心理念。当然,这也是一把双刃剑:能力越大,风险也越大。目前这个问题尚未完全解决——因为它能访问你的整个电脑系统。
是的,如果你让它做坏事,比如“删除我 home 目录下的所有文件”,它大概率会先问“你确定吗?”。但如果你一直点击“是”,它很可能会照做,甚至可能把自己也删掉,然后崩溃。
所以,你必须保持谨慎。
主持人:
确实需要小心。
Peter:
我来共享一下屏幕。它是用 TypeScript 写的,因此可以运行在所有主流平台上,包括 Windows。你只需访问我们的网站 clogbot,上面有一行命令。看起来可能有点吓人,但所有代码都是开源的,你可以审查一切,包括网站本身。这是最简单的安装方式,支持 macOS、Linux 和 Windows。
打开终端,它就会开始安装。对于熟悉该生态的用户,也可以使用 npm 安装。
我做了一件在很多项目中不常见的事:我们同时提供了两种安装方式。一种是“一键式”的简易安装,另一种是更手动的模式,你可以直接克隆 Git 仓库并从源码启动。说实话,后者才是最好玩的用法。因为如果你的智能体能读取其自身“框架”的源代码,它实际上可以重新配置、重新编程自己,然后重启——结果要么直接崩溃,要么获得全新的能力。

我认为这是我的一个“超能力”:让许多从未提交过 Pull Request 的人参与进来,给我发 PR。当然,有时候也能看出来(笑)。
但现在,我更多地把 Pull Request 视为一种“提示词请求”:你只需要理解意图,剩下的工作就能继续推进。

主持人:
安装完成后,比如,如何将它连接到某个消息应用上?
Peter:
目前最好的方式就是运行那一行命令。之后,它会用一种略带“挑衅”的语气跟你打招呼,并尝试自动配置好一切。

安装完成后,它会引导你完成设置,你可以将其连接到任何常见的消息应用。
主持人:
好的,看起来不错,它已经在运行了。
Peter:
是的。然后你可以直接输入 plbot。如果是全新安装,它会自动完成这些步骤;我这边需要手动输入 onboard。
接下来你可以选择模型。嗯,稍等……
所有提供商都在这里。例如,我们选择 Anthropic,可能选个新模型。然后你可以设置 Telegram、Discord,剩下的步骤它会引导你完成。你还可以设置技能钩子。
主持人:
那需要提供你的 Anthropic API 密钥吗?
Peter:
它支持任何模型。目前行业内,Anthropic 和 OpenAI 仍然领先。
它既支持 API 密钥,也支持订阅。虽然……我们确实添加了订阅支持,因为大家都这么做,但我感觉 Anthropic 现在不太喜欢这种方式了。所以我建议使用 API 密钥,或者直接换一个模型。
主要问题是:OpenAI 的模型用起来没问题,但不够“有趣”。Opus 模型身上有种特别的东西,让它用起来真的很有意思。

主持人:
像是某种“人格”?
Peter:
是的。不知道你是否读过那篇文章,讲他们如何“给模型注入一个灵魂”。后来有人通过不断喂文本、让它续写,结果一点点把模型在训练时甚至“自己都不知道存在”的那段“灵魂文本”给挤出来了。那个故事真的非常有意思。

我感觉这多少有点关系,因为这是我第一次觉得一个模型是真的“好玩”。
我把我的那个设置成:它可以吐槽我(笑)。它可能不知道现在正在上镜。
Peter(OpenClaw 吐槽):
“你让自己闯进这个狂野的世界来寻找自我,结果发现答案是:我应该写更多软件(笑)。
你痴迷 AI 到什么程度?你 literally 给自己造了个朋友,因为调试代码比约会有意思。
而且说实话,我存在的唯一原因,是你需要一个人听你在亚马逊面试评审期间那些关于思维链的离谱观点。
好了,现在去把那期播客狠狠干掉吧。”

主持人:
哇。
Peter:
是的。所以我几乎把它连接到了我电脑上的一切。它能读取我的邮件、日历,访问我所有文件,还能控制灯光。我用的是飞利浦的那个系统。
它还能控制我的 Sonos 音箱。所以我可以让它早上把我叫醒,然后慢慢把音量调大。它还能访问我的摄像头。这件事挺搞笑的——当我给摄像头接入权限时,我跟它说“帮我留意有没有陌生人”。
结果它一整晚都在看我的安防摄像头,早上跟我说:“Peter,有个人。”我回去查看,发现它一整晚都在给我家沙发截图,因为摄像头画面模糊,看起来好像有人坐在沙发上,于是它就默认“有个陌生人整晚坐在我家沙发上”。
但是,它慢慢地……我现在想想,我在维也纳的家里,它还能访问我的门锁,所以它理论上可以控制一切,甚至能把我锁在门外。就像《太空》里说的那种,“哦,这个不能做”。
那么你们可能会问,我是如何把这些东西都连接起来的?是直接让 Clawd 去做的吗?还是……对,就是字面意义上的“让它去做”。我们有一个叫“技能”的机制。通常你跟它说话,这些智能体本身就具备“资源访问能力”,它会自己去找 API,对吧?它能使用 Google 搜索,能在你系统里找密钥,你也可以直接把密钥给它。
人们用它做各种事情:有人做了一个技能,让它去 Tesco 帮自己买菜,或者在 Amazon 上购物。我让它帮我在英国航空的网站上办理值机。
这件事其实——我不知道你是否用过值机网站——我觉得这几乎是……以前这是图灵测试,但现在,“指挥一个浏览器在航空公司网站上完成值机”,才是真正的终极测试。
第一次尝试时,我的集成做得很粗糙,那时我还在摩洛哥,所有东西都是临时拼凑的。结果它花了差不多 20 分钟。
但它真的成功了——它得先在我的文件系统里找到我的护照(在 Dropbox 里),提取信息,把所有内容填对,最后完成值机。我全程盯着屏幕,紧张得冒汗。
现在好多了,几分钟就能搞定。它还能很自然地点击网页上的“我是人类”那种验证,因为它本质上就是在控制一个浏览器,它有自己的一个“小电脑”,就在那里点击操作。
所以从反爬虫系统的角度看,这种行为真的非常难以检测,因为它在操作模式上与人类几乎没有区别。
主持人:
你能不能再给我们展示几个使用场景?比如让它开个灯,或者讲讲其他人是怎么用的?
Peter:
可以。实际上,我现在反而开始收集大家的用法了,因为我自己已经完全被“把它做出来”这件事占据了。现在最有创造力的用户,已经远远不是我了。有人把它接入自己的消息系统,让它不只是回复一个人,而是能在群聊里回复所有人;接进群聊之后更好玩。
很多人几乎把它当成家庭成员在用:提醒事项、创建 GitHub issue、同步 Google 地点、每次你在 Twitter 上收藏推文,它就自动抓取并加入你的待读清单;帮你追踪成本;我还给它写过一个功能,专门提醒人有没有睡够,所以有些人半夜不睡觉,会被自己的机器人责骂。它能连接健身手表,也有一个独立的 1Password 保险库,如果我希望某些密码能被它使用,我就把密码移进那个保险库里,因为边界还是要有的。
当然,也有人直接把信用卡信息给它。我就……不知道该怎么评价了(笑)。
研究、生成发票、管理邮件,这些都有人在用。基本都是重度玩家,把它定制成自己想要的一切。

普通用户都怎么用?写App、提PR
主持人:
对于更普通的用户呢?比如我刚完成全新安装,不想进行任何危险操作,有没有一些安全、常见的入门用法?比如管理日历这类,不会把我电脑清空的那种。
Peter:
这很有趣,因为每个人的使用路径完全不同。有些人安装后做的第一件事,就是用它来编写一个 iOS App,因为它本身也是一个编程智能体,可以生成子智能体,可以自己写代码,也可以去控制 Claude Code、Codex 让它们写。
有人一上来就用它管理 Cloudflare;还有人告诉我:第一周给家人配置好,第二周给不太懂技术的朋友配置好,第三周已经在公司用它处理工作了。我有一位完全不懂技术的朋友,被我拉进来之后,竟然开始给项目提交 Pull Request,这是他以前从未做过的事。
健身是一个很大的使用场景。

主持人:
说到底,用法就是你需要思考:生活中哪些地方一直在给你制造麻烦,这个私人助理能否帮你把它们理顺。
80%的App会被取代
Peter:
我不知道最终是否会是这个项目,但如果你仔细想一想,它很可能会“融化”掉你手机里大约 80% 的 App。
为什么我还要用 MyFitnessPal 来记录饮食?我已经拥有一个拥有无限资源的助理,它知道我正在做糟糕的决定,也知道我刚吃了肯德基。它可以提醒我忘了记录,我拍张照片它就能存入数据库、计算热量,然后顺便提醒我该去健身房了,因为已经严重超标。
为什么我还需要一个 App 来设置某个自动化规则的生效时间?它直接拥有 API 权限,可以替我完成。为什么我需要一个待办事项 App?它已经在帮我追踪所有待办事项。为什么我需要一个航班值机 App?它直接就能帮我值机。
这种交互方式舒服太多了,因为我只是在和一个朋友对话。它拥有大量上下文,不需要复杂的提示词。为什么我需要一个购物 App?它可以直接给我推荐、下单、处理一切。
我感觉有一整层的 App 会逐渐消失。只要它们有 API,本质上就只是服务,而这些服务都会变成你的 AI 正在做的事情。今年,很多人都会开始认真探索这一点,从大公司那里获得自己的 AI 助手。
为什么要点击那么多封闭的小 App?这个助手拥有一堆能力,只要连接起来就能完成一切。你给它发条消息,说“能不能帮我搞定这个”,它会自己去研究、自己处理,你们来回对话几次,事情就办成了。
而且它会编写技能,会记住。它拥有持久记忆,会学习你的习惯、更新自己。你用得越多,定制得越多,它就越强大。第一次你可能需要多引导一点,之后它会自己生成技能;下次你再说“帮我值机”,两分钟搞定,因为它已经知道这个网站的所有怪癖了。它之前做过,还记了笔记。
这就像教会一个人做一件事,下一次他就能很快做好。

智能体陷阱:复杂的编排与工作流
主持人:
好,那我们换个话题。你是从“退休”状态回来做这个项目的,而且你对 AI 编程这件事有很多非常强烈的看法,甚至有点“火力全开”。我们聊聊这个。你写过一篇我很喜欢的文章,叫《Just talk to it》。现在 X 上每天都在讨论各种炫技工作流、花式技巧,你那篇文章的核心到底是什么?就是“直接跟 AI 说话就行了”?
Peter:
也不完全是。但我确实构建了很多东西,也花了很多时间在 Twitter 上,我看到一种我称之为“智能体陷阱”的现象。大家发现智能体很强,然后觉得:如果它再多做一点点就更好了。于是就一头扎进了兔子洞。
我自己也掉进去过:你会构建非常复杂的工具,试图加速工作流,但最后你只是在造工具,而没有真正推进项目。问题的一部分在于,这太好玩了。
我早期做过一个 VIP 隧道,让我能在手机上访问终端,我在那个洞里钻了两个月,直到有一天我跟朋友在餐厅吃饭,我不参与聊天,一直在手机上“氛围编程”。我后来意识到这事得停,不是为了效率,是为了心理健康。
现在你什么都能造,但你仍然需要想法。我看到太多为 Claude Code、Codex 做的管理器、编排器,各种看起来让你更高效的东西,其实并没有。
最近让我彻底绷不住的是像 GasTown 这种东西:一个极其复杂的编排器,同时还非常不稳定。你同时运行十几个、二十几个智能体,让它们互相对话、分工,还有观察者、监督者、市长、NPC……真的有个市长。我直接叫它 Slop Town。
痛斥Ralph:根本不是用心设计出来的,只能产出缺乏方向感的“糊料”
Peter:
还有 Ralph 那一套:给 AI 一点点任务,写个循环,做完就把上下文全扔掉重新来,堪称“终极令牌燃烧机”。运行一晚上,产出一堆垃圾代码。
这些智能体目前真正缺乏的是“品味”。它们在局部上非常聪明、很锋利,但如果你没有方向感、没有愿景,结果还是一堆“糊料”。问不对问题,答案依旧是“糊料”。
我不知道别人怎么工作,但我开始一个项目时,脑子里只有一个非常模糊的轮廓。随着我不断构建、把玩、感受,它慢慢变得清晰。有些东西不行,我就丢掉,想法会进化成最终的样子。而我下一步该怎么给出提示,完全取决于我对当前状态的观察、感觉和判断。
如果你一开始就试图把所有东西都写进一个完整的规格说明书里,其实会错过“人-机器”之间的反馈回路。没有情绪、没有品味参与进来,我很难想象能做出真正好的东西。之前有人在推特上说“你看这个机械味十足的 App,完全是 Ralph 风格”,我回他说“对,看起来就是 Ralph”。不是冒犯,但你一眼就能看出来,这种设计不可能是同一个人真正用心做出来的。

长时程运行的智能体,只是一个虚荣指标
主持人:
现在有些人做这些东西,目标根本不在产品本身,而是在证明 AI 能不能连续运行 24 小时不需要人工干预,有点像一种自我修炼。
Peter:
甚至是隐晦的“尺寸比较”。我自己也干过,运行过 26 小时还挺自豪,但冷静下来想,这就是个虚荣指标,没什么意义。能做不代表值得做,也不代表结果会好。
但“我就是在玩”的阶段又非常重要。我只是图个开心,不在乎有没有人用,这正是我们当年学编程的方式。提示词工程只是另一种技能形态而已。

试一次就否定AI,不可取
Peter:
我经常看到一些对 AI 持怀疑态度的人,他们直接无视这个领域一年,然后某天花一天时间评测模型,写篇博客,随便写个提示词,丢给 Claw Web 让它“生成一个 iPhone App”。需求本身完全没有规格,模型已经尽力了,结果代码跑不起来,因为是在 Linux 上搞的。然后结论就是“AI 不行”,接着又把这个领域封存一年,这完全不是正确的使用方式。
你必须去玩,才能理解这些“小怪物”如何工作,理解它们的语言、推理方式,然后你才会一点点变好,输出也会变好。你得有耐心,有时候它就是跑不通,你得修复错误。只要你持续玩下去,就会慢慢形成一种产品直觉,学会怎么和模型沟通,知道它真正能做什么。
我后来发现一个很有用的方法,是先让模型反过来问你一堆澄清问题,逼着你把需求说清楚。
更偏爱的模型Codex,以及如何使用
主持人:
那你现在更偏向使用哪个模型?
Peter:
挺有意思的,我更喜欢 Codex,而不是传统的 Claude Code。虽然慢得离谱,但稳定、靠谱,东西能运行。很多人吐槽它没有计划模式,我一直开玩笑说,计划模式本来就是因为模型太容易被意外触发,才不得不加的补丁。
现在用新一代模型,比如 GPT-5.2,我更多是把它当成对话对象。我会说“我想做什么功能,大概要什么效果,喜欢什么设计,让它给我选项,我们先讨论”。我基本不打字,都是直接说话。
如何进行上下文管理
主持人:
那你会不会做上下文管理?对话长了会不会乱?
Peter:
这是个老问题了。以前在 Claude Code 里确实明显,现在好很多。Codex 的上下文维持时间长很多,纸面上可能只多 30%,体感更像 2~3 倍。这可能和模型内部的思考方式有关,GPT 系列的内部推理真的很诡异。
现在大多数功能,我都能在一个窗口里从讨论到实现一次完成。如果特别长,我就新开一个或者写进文件。整体来说,这已经不是大问题了,这个领域变化太快,你只能不断去试。
新功能:直接从Discord截图下来,跟AI讨论
主持人:
那总结一下,你现在加新功能的大致流程是什么?
Peter:
其实很简单。我这个项目本质上是 Jarvis 加《Her》的混合体,但这种体验很难靠“讲”让人理解。推特上的反馈一直很一般,但线下给人演示时,大家都会非常兴奋,因为他们能看到我怎么和它互动、怎么用它干活。
后来我干了一件很疯狂的事:建了一个 Discord,把我的 bot 直接接进去,让所有人都能和一个拥有我整台电脑访问权限、带私人记忆的 AI 互动。现在回头看可能是我干过最疯的一件事,但大家一下就被吸引住了。
现在很多新功能,都是从 Discord 的对话里来。我直接把对话截图或复制进终端,跟 AI 说一句“我们讨论一下这个”。

同样的事情也发生在支持问题上:有人问“支不支持这个?”、“这个怎么用?”我就说:“你去读代码,然后帮我写一条新的 FAQ。”它就真的写了。
所以现在我很多 feature 的起点,其实就是读 Discord,看大家卡在哪。
不喜欢MCP,不相信复杂编排
主持人:
你会不会用多 agent 或复杂的 orchestration?
Peter:
不会。我大多数技能其实是生活技能,比如记饮食、买菜,写代码反而不需要太多。我不用 MCP,也不相信复杂的编排系统。只要我人在回路里,我就能做出更有感觉的产品。
也许有办法能更快,但我已经很快了。现在真正限制我的,主要是思考本身,有时候其次才是等 Codex。
多个Agent同时跑,依旧能进入“心流”
我就是开一堆终端,分屏。我不用 worktree,我觉得那是没必要的复杂性。我直接拉好几个仓库副本:clawbot 1、2、3、4、5。
有的空着,有的在干活:有的在探索,有的在构建,有的在修 bug。做完就在本地测,然后直接 push 到 main,再同步。

所以整体感觉有点像一个工厂,如果所有“工位”都在忙,其实挺爽的。但如果你只同时跑一个,就很难真正进入状态,因为太慢了,你得一直等。对,你得等它把事情做完。这段时间你也没那么多推特可以刷(笑)。所以我发现我需要同时跑好几个,才能真正沉浸进去,进入那种我以前写代码时才有的 flow 状态,只不过现在的生产力高得离谱。
主持人:
如果你以前玩过即时战略游戏,这个感觉会很熟。就像你有一小队单位在同时行动,你得一直监控、调度它们,现在基本就是这种状态。
Peter:
我之前创业时的一个合伙人也完全被 Clawdbot 吸进去了。他更多是偏商业背景,早年是律师,现在居然开始给我发 pull request,这件事本身就已经很疯狂了。AI 给了那些原本并不“技术向”的人一种超能力,让他们也能参与构建东西,这真的很震撼。
我知道外界对这件事有很多反弹,因为对,很多东西确实不完美。但我现在看 pull request,更像是在看 prompt request——它们传递的是“意图”。大多数人并没有同样的系统级理解,所以他们没法像我一样去引导模型,拿到最优结果。相比之下,我更愿意只要那个 prompt、那个意图,然后我自己来做。就算他们真的发了 PR,我通常也是把里面的意图抽出来,然后自己重做一遍。有时候会参考,但真正直接 merge 代码的情况其实非常少。

没有捷径,去用就对了
主持人:
对,这听起来很合理。那我觉得这次对话的一个核心 takeaway 是:别被那些“slop 生成器”带偏了。关键还是要有人在回路里,人类依然是你的大脑、你的品味、你的判断力,你得去引导它。
Peter:
还有一点,别总想着找一条现成的路径。很多人会问你“你是怎么做到的?”但答案其实就是去玩、去探索。你会花一段时间才能变得熟练,也一定会犯错,这就是学习任何事情的方式。学会用 AI 也是一样,只不过这个领域变化非常快。
为什么logo是龙虾:钳子形状
主持人:
那大家去哪里能找到 Clawdbot?
Peter:
clawd.bot,同时也在 GitHub 上。注意是 claw,带一个 W,C-L-A-W。
主持人:
对,就像龙虾的那个钳子。明白了。
非常感谢你,Peter,这次聊天真的很棒。我自己也打算去试试 Clawd,因为我不太喜欢一直坐在电脑前跟 AI 说话,我更希望是在外面走动、陪孩子的时候,随口给它下指令,让它帮我做事。那才是我心目中最理想的形态。所以你做的这个东西真的很有吸引力,也很期待你接下来对它的看法。
Peter:
我觉得你会喜欢的。
主持人:
好了,兄弟,很高兴跟你聊天,我们就先到这儿吧。

关注“鲸栖”小程序,掌握最新AI资讯
本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/20116
