Milla Jovovich 这个名字你可能不熟悉,但你很可能看过她的电影——无论是《生化危机》系列中的爱丽丝,还是《第五元素》里的莉露,她塑造了好莱坞经典的硬核动作女星形象。

然而在2026年4月,她以一种截然不同的方式引发了关注:她在GitHub上发布了一个名为MemPalace的开源项目。该项目在48小时内获得了7000颗星,一周内突破19000颗,目前星标数已超过四万。

一位动作女星投身开源AI项目,这一反差本身就颇具话题性。那么,这个项目本身究竟如何?客观地说,它既有亮点,也存在相当明显的不足。
01 项目初衷:源于真实痛点
Milla在项目的MISSION.md文件中阐述了她创建MemPalace的起因。她长期使用一个名为Lumi的AI助手进行项目协作,但遇到了所有AI重度用户都头疼的问题:上下文窗口压缩后,AI便会“失忆”。
她形容Lumi每次“醒来”都像一位新同事,反复询问“我们今天要做什么?”,尽管此前已经与它进行了数小时的深入对话。

她尝试了市面上各种记忆系统,但总觉得不尽如人意。用她的话说,这些系统就像“空仓库”:你往里面堆放了大量信息,但真需要时却难以找到。她特别渴望一种模糊回忆的能力——即那种“我们之前好像聊过类似的东西?”的感觉,这是传统关键词搜索难以实现的。
因此,她与工程师@bensig合作,从自身的真实需求出发,利用Claude Code构建了这个项目。这个出发点相当务实,并非为了盲目蹭AI热度。
02 MemPalace是什么:本地长期记忆系统
一句话概括:MemPalace是一个本地运行的AI长期记忆系统。它的核心机制是逐字存储你的对话和项目文件,然后通过语义搜索进行检索。
关键在于:它坚持存储原始文本,不进行摘要或改写。这一设计选择颇具意味。大多数记忆系统会对内容进行压缩以节省空间,而MemPalace则优先保证信息的完整性。对于个人使用场景而言,磁盘空间通常不是瓶颈,信息的保真度更为重要。

其存储结构借鉴了“记忆宫殿”的概念:
* Wing(翼):顶层单位,通常对应一个项目或一个人物。
* Room(房间):具体的话题或领域,例如“认证迁移”、“部署流程”。
* Closet(壁橱):压缩索引,指向原始内容的位置。
* Drawer(抽屉):逐字保存的原始对话文本。
* Tunnel(隧道):用于实现跨翼关联。如果不同项目中讨论了同一话题,图谱层可以自动将它们连接起来。

其灵感来源于两套经典方法:一是古希腊演说家使用的“记忆宫殿”记忆术,二是德国社会学家尼克拉斯·卢曼的“卡片盒笔记法”。理念听起来优雅,但优雅的理念不等于出色的实际效果,后文将展示实测数据。
03 核心架构:四层记忆栈
这是MemPalace在工程上最具价值的部分。项目设计了一个四层渐进式加载的记忆栈:
* L0 身份层:约50个token,用于告知AI其身份及服务对象。
* L1 关键故事层:约500-800个token。系统自动从所有记忆中筛选出约15个最重要的“时刻”,并按房间分组,作为每次唤醒AI时的核心上下文。
* L2 按需回忆层:仅当对话触及特定话题时,才加载对应房间的内容,约200-500个token。
* L3 深度搜索层:对整个记忆库进行全量语义检索。
其核心思路是:无需将所有记忆一次性塞入提示词,按需加载即可。一次典型的AI唤醒通常只需600-900个token,远比塞入全部历史记录节省。
此外,系统还包含一种名为“AAAK”的压缩方式。Milla表示这个名字并无特殊含义,只是她与Lumi之间的内部玩笑。它将人名、重复概念和关键时刻压缩成极简速记,存储在Closet中作为索引,指向Drawer内的原始内容,类似于图书馆的目录卡片系统。
04 性能数据:优势与硬伤
首先,MemPalace的纯语义搜索能力确实出色。在LongMemEval基准测试中,其Raw模式(纯语义搜索)取得了96.6%的R@5召回率。这个成绩完全基于本地的ChromaDB向量检索,无需任何API调用或LLM参与。其Hybrid v4模式在未见过的测试集上也取得了98.4%的成绩,具有可复现性。

然而,接下来是该项目最值得探讨的部分,也是其主要的硬伤:项目引以为傲的宫殿结构,在检索性能上并未带来增益,反而造成了损耗。
项目自身的BENCHMARKS.md文件记录了一组关键数据:
* Raw模式(纯语义搜索):96.6%
* 启用Rooms(元数据过滤):89.4%(下降7.2个百分点)
* 启用AAAK压缩:84.2%(下降12.4个百分点)
这意味着,MemPalace最核心的卖点——精心设计的宫殿架构与层级结构——在提升检索准确率方面,目前缺乏数据支撑,甚至产生了负面影响。那96.6%的优秀成绩,主要归功于底层的ChromaDB向量检索能力本身。
这并非全盘否定宫殿结构的价值。从信息组织和多项目管理角度看,Wing和Room的划分有助于范围检索。但若追求纯粹的检索准确率,用户需要知晓这一事实。
05 生态整合与争议
抛开性能争议,MemPalace在生态整合方面做得不错。它提供了包含29个工具的MCP Server,覆盖检索、知识图谱、跨翼导航等操作,可与Claude Code、Gemini CLI等兼容MCP的工具直接集成。其后台Hooks能自动存档对话,据Milla实测,每轮对话可节省约1.13美元的重复传输成本。
隐私方面,所有数据本地运行,无需上传,核心功能也无需API密钥。在AI工具普遍要求数据上云的今天,这一点值得肯定。
最后,必须提及项目引发的争议。项目公开后,早期宣传中的两个问题引发了激烈讨论:一是声称宫殿架构能带来“+34%性能提升”,而实测为负增益;二是在LoCoMo基准上宣传的“100%召回率”,后被证实绕过了检索环节。
项目团队随后经历了约10天的纠错过程:从最初的辩解,到承认问题,公开撤回错误宣传,重写文档,并公开所有基准测试方法和原始数据,补充了42个回归测试。这一公开纠错的过程本身,也构成了项目叙事的一部分。
总结而言,MemPalace是一个理念有趣、工程上有亮点(如四层记忆栈),但在核心架构效能上存在疑问的项目。对于用户而言,它值得作为实验性工具谨慎尝试。
96.6% 的纯本地检索召回率表现突出,体现了其在本地优先与隐私保护方面的明确优势,这在当前 AI 工具中颇具价值。
项目由 Milla 的真实需求驱动,这使其比许多跟风项目更具说服力。
然而,其问题同样显著。
核心的宫殿架构在检索性能方面缺乏实测数据支撑,甚至可能存在负面影响。项目早期宣传存在过度承诺之嫌,且其长期维护能力——鉴于核心团队规模有限——仍是一个未知数。
就目前而言,MemPalace 更接近于一个颇具启发性的实验性项目,而非能够稳定应用于生产环境的成熟工具。
总结与建议
* 尝鲜用户:如果你是 AI 协作的重度用户,乐于尝试新技术并能接受一些边界情况与不稳定因素,可以试用探索。
* 生产用户:如果你寻求的是稳定可靠的企业级长期记忆解决方案,建议保持关注,等待项目进一步成熟。
快速上手
安装与初始化非常简单:bash
pip install mempalace
mempalace init ~/projects/myapp
mempalace mine ~/projects/myapp

关注“鲸栖”小程序,掌握最新AI资讯
本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/31136

