19岁小哥10分钟写就的GitHub神器:让AI像山顶洞人说话,Token最高省87%

一款GitHub神器正在走红:让AI“像山顶洞人一样说话”,Token最高节省87%

一款旨在显著节省AI输出Token的开源工具正在GitHub上快速流行。该项目名为 caveman(山顶洞人),其核心理念异常简单:对于AI助手而言,冗长并不总是更好,有时更少的字数意味着更高效的沟通

短短数日,该项目在GitHub上已收获超过4.1K星标,增长势头迅猛。

19岁小哥10分钟写就的GitHub神器:让AI像山顶洞人说话,Token最高省87%

令人意外的是,这个项目的开发者——19岁的Julius Brussee——最初只花了10分钟将其作为一个“玩笑”创建出来,却没想到会受到如此热烈的欢迎。

19岁小哥10分钟写就的GitHub神器:让AI像山顶洞人说话,Token最高省87%

原理:言简意赅,保留精髓

caveman 是一个为Claude Code/Codex等AI编程助手设计的插件。其目标正如其名:让AI助手“像山顶洞人一样说话”,即输出极其简洁、直奔主题的内容。

它通过压缩AI回复中的自然语言部分来实现这一目标,同时完整保留所有技术性内容,例如:
* 代码块和行内代码
* URL、文件路径、命令
* 标题、表格结构
* 日期、版本号

效果对比示例:

  • 普通Claude回复可能需要一段详细的解释:“你的React组件之所以会重新渲染,很可能是因为你在每次渲染周期中都创建了一个新的对象引用…”
  • caveman模式下的回复则极为精简:“每次渲染都会创建新的对象引用。内联对象作为prop传递=新的引用=触发重新渲染。用useMemo包裹起来即可。”

初步测试表明,这种方法能在保持技术准确性的同时,将输出Token减少约75%。

可调节的简洁度与实测效果

用户可以根据需要,选择三种不同的压缩级别:
* Lite:删除客套话和冗余表达,保留基本语法。
* Full(标准模式):省略冠词,输出关键词片段,风格类似“山顶洞人”语言。
* Ultra:极致压缩模式,能省则省。

19岁小哥10分钟写就的GitHub神器:让AI像山顶洞人说话,Token最高省87%

开发者使用真实的Claude API进行了测试,在涵盖代码解释、问题修复、概念说明等10个不同任务中:
* 节省的Token范围在22%到87%之间
* 平均节省高达65%

19岁小哥10分钟写就的GitHub神器:让AI像山顶洞人说话,Token最高省87%

安装与使用

在支持skills的环境(如Cursor、Copilot、Windsurf、Claude Code)中,安装非常简单:
bash
npx skills add JuliusBrussee/caveman

安装后,选择caveman模式或直接对AI助手说“像caveman那样说话”,即可启用。需要停止时,切换回正常模式或说“stop caveman”即可。

项目背后的思考

caveman的流行也印证了一项学术观察:通过施加简洁性约束,大语言模型在某些任务上的准确率可能得到提升。一篇2024年3月的论文发现,强制简短回答能使模型在数学推理和科学知识基准上的表现显著提高。

19岁小哥10分钟写就的GitHub神器:让AI像山顶洞人说话,Token最高省87%

开发者Julius Brussee目前是荷兰莱顿大学数据科学与人工智能专业的大一学生。尽管年纪轻轻,他已多次参与创业项目。对于caveman的意外走红,他感慨道:一个随手写的“玩笑”获得了巨大关注,而自己花费数月精心打磨的其他项目却未能获得同等程度的反响。这让他观察到,传播的关键往往在于能否引起最广泛的共鸣。

19岁小哥10分钟写就的GitHub神器:让AI像山顶洞人说话,Token最高省87%

存在的讨论

当然,caveman的走红也伴随着一些争议和讨论。主要围绕两点展开:

(待续)

  • 该工具主要节省的是输出 Token,而模型推理的主要成本通常来自上下文输入 Token。
  • 一个值得探讨的问题是:强制大模型输出更简洁的内容,是否会影响其推理能力?

19岁小哥10分钟写就的GitHub神器:让AI像山顶洞人说话,Token最高省87%

对此,项目作者也在 Hacker News 评论区进行了详细说明:

这项技能的初衷并非减少模型内部的推理或思考 Token。Anthropic 自家的文档也建议,更多的思考预算通常能提升模型表现,我对此并无异议。

它的目标是精简那些“可见的”输出:减少冗长的开场白、填充内容以及过于精致但非必要的文本。因此,由于输出被“原始化”了,代码生成完全不受此技能影响。

一个合理的批评是,README 中“~75%”的节省数据来自初步测试,而非严格的基准测试。这一点本应更谨慎地表述,我正在准备进行更正式的评估。

19岁小哥10分钟写就的GitHub神器:让AI像山顶洞人说话,Token最高省87%

简而言之,节省成本是附带效果,其核心是减少冗余表达,因此通常不会导致模型能力下降。

在作者看来,“山顶洞人”模式更像一个有趣的概念验证,其适用范围比一些人想象的要窄,后续仍需更精确的基准测试来验证。

这也与部分社区用户的结论相似:

因其趣味性和在减少输出 Token 方面的巧思而值得称赞。

但它并非降低总成本的万能药,甚至可能让 Claude 的输出智商轻微下降。

19岁小哥10分钟写就的GitHub神器:让AI像山顶洞人说话,Token最高省87%

你是否已经尝试过这个工具?欢迎分享你的使用体验。

项目地址:
https://github.com/JuliusBrussee/caveman

参考链接:
[1]https://news.ycombinator.com/item?id=47647455
[2]https://www.reddit.com/r/ClaudeAI/comments/1sble09/taught_claude_to_talk_like_a_caveman_to_use_75/


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/29078

(0)
上一篇 2026年4月7日 下午4:17
下一篇 2026年4月7日 下午5:45

相关推荐

  • SLAM教父破例点赞!中国队开源LingBot-Map:普通摄像头实现万帧流式3D重建,引爆120万人围观

    一款名为LingBot-Map的流式3D重建基础模型,仅依靠普通RGB摄像头,无需激光雷达或深度传感器,即可实现20FPS的实时完整3D地图构建。其最显著的特点是,在连续处理长达一万帧的图像序列时,重建精度几乎不衰减。 这一成果在机器人学界与工业界引发了广泛关注。帝国理工学院教授、SLAM领域奠基人之一Andrew Davison罕见地公开评价道:“看起来这…

    1天前
    10300
  • OpenResearcher:首个开源离线深度研究轨迹合成流水线,训练30B模型超越GPT-4.1与Claude-4-Opus

    训练一个能够像人类研究员一样执行“搜索→浏览→推理”的深度研究智能体,其核心瓶颈往往不在于模型本身的能力,而在于高质量、长程研究轨迹数据的严重匮乏。现有的数据采集方法要么依赖昂贵且不稳定的在线搜索API,要么只能生成2-5轮的浅层交互,远不足以覆盖真实深度研究中动辄数十轮甚至上百轮的复杂推理链条。 针对这一痛点,来自德克萨斯农工大学、滑铁卢大学、加州大学圣地…

    2026年3月29日
    38100
  • AI Hedge Fund:12位投资大师Agent军团开源,人人可用量化投资

    AI 对冲基金:开源 12 位投资大师智能体军团,量化投资触手可及 一个汇集了 12 位世界级投资大师智慧的开源项目,正在 GitHub 上引发关注。该项目名为 AI Hedge Fund,旨在将传奇投资人的哲学编码为智能体(Agent),为用户提供股票分析与交易策略参考。 该系统不仅能让这些“大师级”智能体实时分析市场,还内置了回测模块。用户可以先使用历史…

    2026年4月13日
    57500
  • 解锁自动化新境界:n8n与飞书多维表格的完美融合,打造高效工作流

    解锁自动化新境界:n8n与飞书多维表格的完美融合,打造高效工作流 在利用开源工作流工具 n8n 构建自动化流程时,数据的归档与存储是关键环节。飞书多维表格为此提供了一个优秀的解决方案。它不仅可作为结构化数据的中转站,更能借助其「字段捷径」功能,与 AI 处理或后续自动化流程无缝衔接,实现效率的倍增。 值得一提的是,飞书多维表格现已支持网页端直接访问(base…

    2025年11月7日
    1.1K00
  • DeepTutor:开源AI学习助手,用交互式可视化与双回路架构重塑智能辅导

    不知从什么时候开始,AI 已经成为了许多学生手中的“做题外挂”。 遇到不会的题目,直接丢给 ChatGPT 或 DeepSeek,答案瞬间可得。 但这真的有助于学习吗?许多家长已经开始担忧:孩子依赖 AI 后,不再主动思考,只是机械地抄录答案。 我们需要的不是一个只会输出答案的机器,而是一个懂得引导、能够拆解知识的“AI 学习助手”。 近日,GitHub 上…

    2026年1月7日
    77700