近期,Andrej Karpathy分享了一种利用大语言模型管理个人知识库的新方法,其核心思路引发了广泛共鸣。他将这一理念整理成一份Gist文档,迅速获得了大量关注。
这一思路的兴起,与大模型自身能力的演进密切相关。长程Agent能力的提升,以及渐进式披露等实践方法的出现,使得许多过去难以被AI重塑的知识管理场景正逐步被解锁。

核心理念:从检索到构建
Karpathy提出的核心范式转变在于:
不应将LLM视为临时的搜索引擎,而应使其像程序员维护代码库一样,持续构建并维护一个结构化的Markdown知识库。
在这一模式下,用户负责发现资料、提出高质量问题;LLM则承担所有繁琐的“簿记”工作:总结内容、建立交叉引用、分类整理、保持知识库的一致性。用户在Obsidian等工具中浏览,LLM则在后台持续编辑,使知识库像滚雪球一样实现复利增长。

传统RAG方案的局限
当前,大多数人使用LLM管理文档的方式趋于一致:上传文件,每次提问时由LLM检索相关片段并生成回答。这正是常见的RAG方案,也是NotebookLM、ChatGPT文件上传等功能的基础。

Karpathy指出,这种模式存在一个根本性缺陷:缺乏积累。
每次提问,LLM都需要从原始文档中重新检索、拼凑信息。面对一个需要综合多篇文档的复杂问题,它每次都必须从头开始推导。问答结束后,生成的答案便随之消散,下次遇到类似问题仍需重复劳动。知识从未被真正沉淀为可复用的资产。
迈向复利增长的知识库
Karpathy的方案截然不同。其核心是让LLM不再进行临时检索,而是持续地、增量式地构建和维护一个Wiki——一个结构化的、高度互连的Markdown文件集合。
当引入一份新资料时,LLM不会仅仅将其索引以备检索。它会阅读资料,提取关键信息,并主动将其整合进现有的Wiki中:更新相关实体的页面、修正主题摘要、标注新数据与旧结论之间的矛盾。
关键在于:知识被“编译”一次,然后持续保持最新。Wiki成为一个持久的、可产生复利的知识资产。交叉引用已经建立,矛盾已被标记,综合分析反映了所有已读内容。每添加一个新来源,每提出一个好问题,Wiki都会变得更加丰富和强大。
系统三层架构
Karpathy将整个系统设计为三层结构:
- 原始资料层:存放收集的论文、文章、图片、数据文件等原始材料。这层是只读的,作为不可变的原始数据来源。

- 知识库层:即由LLM生成和维护的Markdown Wiki目录,包含摘要、实体页面、概念页面、对比分析、综述等。这层完全由LLM拥有并维护,用户负责阅读,LLM负责编写。
- 规则层:一个配置文件(如Claude Code的
CLAUDE.md),用于定义Wiki的组织方式、约定规范、录入来源和回答问题的流程。这是关键的配置层,允许用户与LLM在协作中不断迭代优化系统。
三个核心操作
整个工作流围绕三个核心操作展开:
- 录入:将新文件放入原始资料目录,指示LLM处理。LLM会阅读资料,与用户讨论要点,并在Wiki中创建摘要页、更新索引及相关实体/概念页面。一个来源可能触发10-15个页面的更新。Karpathy倾向于逐个录入,边录边引导LLM关注重点。

- 提问:针对Wiki进行提问,LLM搜索相关页面后综合回答。答案形式多样,可以是Markdown页面、对比表格甚至图表。关键洞察在于:高质量的答案可以保存回Wiki,成为新的知识页面,使得每次探索都能持续丰富知识库。

- 体检:定期让LLM对Wiki进行“健康检查”,查找页面间的矛盾、过时信息、无入链的“孤儿”页面、提及但未独立成页的重要概念、缺失的交叉引用等。LLM还能建议新的研究方向或资料。此操作确保Wiki在增长过程中保持结构健康。

实际工作流与工具
Karpathy的实际工作方式是:同时开启Agent和Obsidian。
LLM根据对话内容编辑Wiki,他则在Obsidian中实时浏览结果,跟随链接点击查看、观察图谱视图、阅读更新后的页面。他将此比喻为:Obsidian是IDE,LLM是程序员,Wiki是代码库。
他使用了一些实用工具,如Obsidian Web Clipper浏览器扩展,可将网页文章快速转为Markdown。
在中等规模(约100个来源、数百个页面)下,仅依靠索引文件进行定位,再深入阅读具体内容,效果已足够好,无需复杂的向量数据库或RAG基础设施。
为何有效:解决核心痛点
维护知识库最令人厌烦的从来不是阅读与思考,而是琐碎的簿记工作:更新交叉引用、保持摘要最新、标注矛盾、维护多页面间的一致性。这些工作使人逐渐倦怠,最终导致Wiki荒废。
LLM没有倦怠感,不会忘记更新一个交叉引用,可以一次性修改多个文件。当维护成本趋近于零时,Wiki便能持续保持健康与活力。
Karpathy提到,这一思路与Vannevar Bush在1945年提出的“Memex”构想一脉相承——一个私人的、精心策划的知识存储,其中文档间的关联与文档本身同等重要。Bush当年未解决的“谁来维护”的问题,如今由LLM给出了答案。
社区的快速响应
此理念提出后,开发者社区反应迅速,已涌现多种具体实现。
例如,有用Go语言编写的sage-wiki工具,支持增量编译、搜索、问答,并能作为MCP Server供任何LLM Agent使用。也有为Claude Code开发的Skill,可实现一键安装与资料录入。还有专为此类思维工作流设计的IDE,如Thinking-Space。
Karpathy强调,其Gist是一份理念文件,而非具体代码实现。在Agent时代,分享思路后,他人的Agent便可据此进行定制化搭建。
如何开始尝试
最简单的起步方式是将Karpathy的Gist内容复制给你的Agent,让它协助你搭建初始环境。
构建这一知识管理系统,核心需要两样工具:一个具备代码能力的智能体(Agent)和一个以本地文件为基础的知识管理软件(如 Obsidian)。
核心组件
* 智能体(Agent):用于执行信息的自动化处理与结构化任务,例如 Claude Code、GPT-4 等具备代码解释与生成能力的模型。
* 知识管理软件:推荐使用 Obsidian。其基于本地 Markdown 文件的特性与双向链接功能,是构建个人知识网络的理想基础。
增强功能与插件
系统可通过以下工具进行功能扩展:
* 增强搜索:当知识库规模增长后,可借助 qmd 等搜索引擎插件提升复杂查询的效率和准确性。
* 内容展示:利用 Marp 等插件,可直接将 Wiki 内容转换为幻灯片格式,便于分享与演示。
* 动态查询:通过 Dataview 插件,可以基于页面的元数据(如标签、创建时间)进行动态筛选与聚合,生成自定义视图。
* 可视化分析:Obsidian 的图谱视图是直观把握知识网络全貌的最佳方式,能够清晰展示页面间的关联、识别核心枢纽节点与孤立内容。
核心理念与优势
这一范式的关键优势在于:
1. 技术通用性:整个 Wiki 由标准 Markdown 文件构成,本质上是一个 Git 仓库,天然支持版本控制、分支管理与团队协作。
2. 思维范式转变:其最大启发在于转变了利用 LLM 的思维方式——从将其视为一次性的问答工具(搜索引擎/聊天机器人),转变为一位不知疲倦的“知识工程师”。它的核心任务是持续地将碎片化信息编译成结构化的、互联的知识网络。
3. 复利增长:每一次使用 LLM 进行知识探索、提问与整理,都在强化和扩展这个专属知识库。知识网络因此得以持续演进和增值,实现了认知的复利效应。
关注“鲸栖”小程序,掌握最新AI资讯
本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/28720


