19岁小哥10分钟写就的GitHub神器:让AI像山顶洞人说话,Token最高省87%

一款GitHub神器正在走红:让AI“像山顶洞人一样说话”,Token最高节省87%

一款旨在显著节省AI输出Token的开源工具正在GitHub上快速流行。该项目名为 caveman(山顶洞人),其核心理念异常简单:对于AI助手而言,冗长并不总是更好,有时更少的字数意味着更高效的沟通

短短数日,该项目在GitHub上已收获超过4.1K星标,增长势头迅猛。

19岁小哥10分钟写就的GitHub神器:让AI像山顶洞人说话,Token最高省87%

令人意外的是,这个项目的开发者——19岁的Julius Brussee——最初只花了10分钟将其作为一个“玩笑”创建出来,却没想到会受到如此热烈的欢迎。

19岁小哥10分钟写就的GitHub神器:让AI像山顶洞人说话,Token最高省87%

原理:言简意赅,保留精髓

caveman 是一个为Claude Code/Codex等AI编程助手设计的插件。其目标正如其名:让AI助手“像山顶洞人一样说话”,即输出极其简洁、直奔主题的内容。

它通过压缩AI回复中的自然语言部分来实现这一目标,同时完整保留所有技术性内容,例如:
* 代码块和行内代码
* URL、文件路径、命令
* 标题、表格结构
* 日期、版本号

效果对比示例:

  • 普通Claude回复可能需要一段详细的解释:“你的React组件之所以会重新渲染,很可能是因为你在每次渲染周期中都创建了一个新的对象引用…”
  • caveman模式下的回复则极为精简:“每次渲染都会创建新的对象引用。内联对象作为prop传递=新的引用=触发重新渲染。用useMemo包裹起来即可。”

初步测试表明,这种方法能在保持技术准确性的同时,将输出Token减少约75%。

可调节的简洁度与实测效果

用户可以根据需要,选择三种不同的压缩级别:
* Lite:删除客套话和冗余表达,保留基本语法。
* Full(标准模式):省略冠词,输出关键词片段,风格类似“山顶洞人”语言。
* Ultra:极致压缩模式,能省则省。

19岁小哥10分钟写就的GitHub神器:让AI像山顶洞人说话,Token最高省87%

开发者使用真实的Claude API进行了测试,在涵盖代码解释、问题修复、概念说明等10个不同任务中:
* 节省的Token范围在22%到87%之间
* 平均节省高达65%

19岁小哥10分钟写就的GitHub神器:让AI像山顶洞人说话,Token最高省87%

安装与使用

在支持skills的环境(如Cursor、Copilot、Windsurf、Claude Code)中,安装非常简单:
bash
npx skills add JuliusBrussee/caveman

安装后,选择caveman模式或直接对AI助手说“像caveman那样说话”,即可启用。需要停止时,切换回正常模式或说“stop caveman”即可。

项目背后的思考

caveman的流行也印证了一项学术观察:通过施加简洁性约束,大语言模型在某些任务上的准确率可能得到提升。一篇2024年3月的论文发现,强制简短回答能使模型在数学推理和科学知识基准上的表现显著提高。

19岁小哥10分钟写就的GitHub神器:让AI像山顶洞人说话,Token最高省87%

开发者Julius Brussee目前是荷兰莱顿大学数据科学与人工智能专业的大一学生。尽管年纪轻轻,他已多次参与创业项目。对于caveman的意外走红,他感慨道:一个随手写的“玩笑”获得了巨大关注,而自己花费数月精心打磨的其他项目却未能获得同等程度的反响。这让他观察到,传播的关键往往在于能否引起最广泛的共鸣。

19岁小哥10分钟写就的GitHub神器:让AI像山顶洞人说话,Token最高省87%

存在的讨论

当然,caveman的走红也伴随着一些争议和讨论。主要围绕两点展开:

(待续)

  • 该工具主要节省的是输出 Token,而模型推理的主要成本通常来自上下文输入 Token。
  • 一个值得探讨的问题是:强制大模型输出更简洁的内容,是否会影响其推理能力?

19岁小哥10分钟写就的GitHub神器:让AI像山顶洞人说话,Token最高省87%

对此,项目作者也在 Hacker News 评论区进行了详细说明:

这项技能的初衷并非减少模型内部的推理或思考 Token。Anthropic 自家的文档也建议,更多的思考预算通常能提升模型表现,我对此并无异议。

它的目标是精简那些“可见的”输出:减少冗长的开场白、填充内容以及过于精致但非必要的文本。因此,由于输出被“原始化”了,代码生成完全不受此技能影响。

一个合理的批评是,README 中“~75%”的节省数据来自初步测试,而非严格的基准测试。这一点本应更谨慎地表述,我正在准备进行更正式的评估。

19岁小哥10分钟写就的GitHub神器:让AI像山顶洞人说话,Token最高省87%

简而言之,节省成本是附带效果,其核心是减少冗余表达,因此通常不会导致模型能力下降。

在作者看来,“山顶洞人”模式更像一个有趣的概念验证,其适用范围比一些人想象的要窄,后续仍需更精确的基准测试来验证。

这也与部分社区用户的结论相似:

因其趣味性和在减少输出 Token 方面的巧思而值得称赞。

但它并非降低总成本的万能药,甚至可能让 Claude 的输出智商轻微下降。

19岁小哥10分钟写就的GitHub神器:让AI像山顶洞人说话,Token最高省87%

你是否已经尝试过这个工具?欢迎分享你的使用体验。

项目地址:
https://github.com/JuliusBrussee/caveman

参考链接:
[1]https://news.ycombinator.com/item?id=47647455
[2]https://www.reddit.com/r/ClaudeAI/comments/1sble09/taught_claude_to_talk_like_a_caveman_to_use_75/

19岁小哥10分钟写就的GitHub神器:让AI像山顶洞人说话,Token最高省87%


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/29078

(0)
上一篇 3小时前
下一篇 1小时前

相关推荐

  • OpenFang重磅开源:Rust构建的Agent操作系统,用Hands预构建能力包串联碎片化AI能力

    前不久,一篇关于 ZeroClaw 的介绍曾引发关注。该项目通过 Rust 重写,将内存占用压至 5MB,启动速度媲美系统命令,大幅超越了 OpenClaw 的 394MB 内存占用。 文章发布后,社区讨论热烈。许多用户认为,虽然 ZeroClaw 在性能上表现出色,但在功能完整性上仍有提升空间,期待一个更完备的 Agent 框架。 春节刚过,OpenFan…

    2026年2月27日
    99700
  • AI开发者的效率革命:三款开源神器让终端、浏览器和Claude协同工作

    一个窗口搞定终端、文件和浏览器 在使用 Claude Code 进行开发时,本地往往会积累大量 Markdown 文件。例如,在规划复杂项目或任务时,我通常会要求 AI 先在本地生成一份 Markdown 格式的计划文档。 然而,查看这些文件需要打开编辑器,查阅文档又需切换至浏览器,频繁切换窗口极大地影响了工作效率。WaveTerm 正是为解决这一问题而设计…

    2026年3月20日
    24800
  • 2026年重塑工作流自动化:n8n的15大开源AI应用场景解析

    如果你还在手动在应用之间复制数据、为每个集成编写自定义脚本,或为 Zapier 支付高昂费用——你将很快明白为什么有超过 7,264+ 个 workflow 模板 和 55,000+ 名社区成员 选择用 n8n 来搭建他们的自动化流程。 n8n(读作“n-eight-n”)不只是另一个自动化工具。它是一个开源、可自托管的 workflow 平台,在无代码的易…

    2026年1月9日
    1.2K00
  • 蚂蚁灵波开源300万对RGB-D数据集,破解深度估计真实场景难题

    从事深度估计与深度补全的研究者,或许都经历过这样的困境:模型在NYU Depth V2等经典基准测试上取得了优异的成绩,但一旦部署到真实的机器人系统,问题便暴露无遗——深度图边缘模糊、远处深度值漂移,遇到反光或透明材质时几乎完全失效。 问题的根源往往不在于代码实现,而在于数据。 这并非个例,而是该领域长期面临的挑战之一。深度估计与深度补全的学术进展,在很大程…

    2026年3月31日
    21100
  • Ruby 4.0重磅发布:ZJIT编译器革新与原生隔离环境,开启性能与安全新纪元

    Ruby 4.0重磅发布:ZJIT编译器革新与原生隔离环境,开启性能与安全新纪元 在Ruby语言迎来30周年之际,全新的4.0版本为开发者带来了重磅更新。本次更新引入了隔离命名空间、全新的JIT编译器,并对Ractor API进行了重新设计,标志着这款开源语言在性能与安全方面迈入了新纪元。 Ruby是一种开源的面向对象脚本语言,由日本人松本行弘于20世纪90…

    2025年12月28日
    23900