《生化危机》女主联手程序员打造AI记忆宫殿,本地开源拿下历史最高分96.6%

项目背景:开源AI记忆系统MemPalace

在GitHub上,一个名为MemPalace的开源项目引起了广泛关注。该项目由知名女演员米拉·乔沃维奇(曾主演《生化危机》系列)与程序员好友及Claude团队共同打造,旨在构建一个高效的AI记忆系统

经过数月的开发与打磨,该系统在长期记忆基准测试LongMemEval中取得了96.6%的优异成绩,据称是“公开可查的史上最高分”。项目已完全开源,支持本地部署运行。

《生化危机》女主联手程序员打造AI记忆宫殿,本地开源拿下历史最高分96.6%

设计灵感:源自“记忆宫殿法”

MemPalace的核心设计灵感来源于古希腊演说家常用的“记忆宫殿法”。该系统将AI的记忆组织成一个可导航的空间结构:

  • 宫殿(Palace):代表包含所有知识的整体空间。
  • 房间(Rooms):代表不同的知识主题,信息按主题归类存放。
  • 记忆(Memories):存储在具体房间中的信息内容。

用户检索信息的过程,被类比为在宫殿中行走并推开不同的门。据称,这种结构化的记忆方式,相比全局无序搜索,能将检索效率提升约34%

更重要的是,MemPalance试图改变解决AI记忆难题的思路——不再专注于让AI自行判断哪些信息“值得记忆”,而是致力于完整记录每一次对话,即使是跨越数月的内容也能有效保存和调用。

此外,团队还为AI设计了一种专用的缩写语言AAAK,以优化信息表达。

技术细节:架构与性能

项目另一位作者Ben Sigman指出,MemPalace的独特之处在于其顶尖的性能和与众不同的工作模式。

除了在LongMemEval测试中表现突出,它在侧重短期记忆的ConvoMem测试和侧重超长期记忆的LoCoMo测试中,也分别取得了92.9%和100%的成绩。

《生化危机》女主联手程序员打造AI记忆宫殿,本地开源拿下历史最高分96.6%

核心特性:本地化与隐私保护
MemPalace的所有记忆处理均在本地完成,无需将用户数据上传至云端,这从根源上降低了隐私泄露的风险。

记忆宫殿架构详解
与常见的向量数据库方案不同,MemPalace构建了一个层次化的空间记忆模型:

《生化危机》女主联手程序员打造AI记忆宫殿,本地开源拿下历史最高分96.6%

  • 翅膀(Wing):代表一个人或一个项目,是一个独立的记忆空间。
  • 房间(Room):代表一个具体的主题(如认证、部署)。
  • 走廊(Hall):定义记忆的属性类别(如建议、决策),为信息增加语义维度。
  • 存储层
    • 抽屉(Drawer):存储原始对话的完整记录。
    • 衣柜(Closet):存储内容的压缩摘要,供AI快速读取。
  • 隧道(Tunnel):当不同“翅膀”中出现相同主题的“房间”时,系统会自动建立连接,实现跨项目或跨人的主题关联。

效率验证:结构化检索的优势
为了验证架构的有效性,团队在超过22000个真实对话上对比了四种检索方式的精度:

《生化危机》女主联手程序员打造AI记忆宫殿,本地开源拿下历史最高分96.6%

实验表明,每增加一层结构约束(从全局搜索到限定房间),检索精度都有显著提升,证明了“宫殿结构本身即产品”的设计理念。

记忆堆栈:按需加载机制
为了平衡效率与效果,MemPalace设计了一套分层的记忆堆栈:

《生化危机》女主联手程序员打造AI记忆宫殿,本地开源拿下历史最高分96.6%

  • L0+L1(约170 tokens):常驻内存,包含AI的基本自我认知和当前对话上下文,确保AI每次“醒来”都具备基础意识。
  • L2(房间级):按需触发,检索特定主题房间内的记忆。
  • L3(全局级):深度搜索,当前面层级无法满足需求时启动。

这种“最小成本理解,按需逐步深入”的机制,使得系统在保证单次召回准确性的同时,也维持了长期记忆的稳定性。

处理海量记忆的能力
团队用长达6个月、约1950万tokens的对话内容(相当于200-400本书或一个中型代码库)测试了MemPalace。传统方法难以将如此大量的信息全部纳入上下文,而采用总结压缩又会丢失细节。

相比之下,MemPalace日常仅需加载约170个tokens,按需加载峰值约13500个tokens,在极大降低计算成本(据估算年成本可低至10美元)的同时,保持了信息的完整度。

《生化危机》女主联手程序员打造AI记忆宫殿,本地开源拿下历史最高分96.6%

保证准确性的关键

1. AAAK语言
AAAK是一种为AI设计的缩写语言,无需额外解码器,主流大模型可直接理解。它能压缩表达重复实体的token数量,提升效率。但需注意,在LongMemEval测试中,AAAK模式的召回率(84.2%)低于原始文本模式(96.6%)。用户需在精度和效率间做出权衡。

2. 实时纠错(开发中)
通过一个名为fact_checker.py的工具,系统能在输出结果前进行一致性校验,自动发现并提示前后矛盾的信息。

项目标识

MemPalace的Logo设计成了一个简易宫殿的样式:

《生化危机》女主联手程序员打造AI记忆宫殿,本地开源拿下历史最高分96.6%

安装与部署指南

第一步:安装
通过pip安装MemPalace包。
bash
pip install mempalace

第二步:初始化
创建一个记忆宫殿的主目录。
bash
mempalace init ~/projects/myapp

第三步:数据挖掘(建立索引)
根据数据类型选择模式,将资料喂给MemPalace。
* 挖掘项目(适用于代码、文档):
bash
mempalace mine ~/projects/myapp

* 挖掘对话(适用于聊天记录导出文件):
bash
mempalace mine ~/chats/ --mode convos

* 通用挖掘(自动分类内容):
bash
mempalace mine ~/chats/ --mode convos --extract general

完成以上步骤,本地记忆宫殿即搭建完毕。

《生化危机》女主联手程序员打造AI记忆宫殿,本地开源拿下历史最高分96.6%

自动模式:适用于支持 MCP(Model Context Protocol)工具调用的 AI 助手(如 Claude)。通过以下命令建立连接后,AI 即可自动调用 MemPalace 的检索工具。
bash
claude mcp add mempalace -- python -m mempalace.mcp_server

手动增强模式:主要配合本地模型使用。
* 基础使用:运行以下命令加载基础记忆(约 170 个 tokens)。
bash
mempalace wake-up > context.txt

* 按需检索:可通过命令行检索特定记忆,并将结果手动注入提示词。
bash
mempalace search "auth decisions" > results.txt

* 编程集成:也可使用 Python API,在代码中直接完成检索。
python
from mempalace.searcher import search_memories
results = search_memories("auth decisions", palace_path="~/.mempalace/palace")

团队背景:从荧幕到代码

MemPalace 由 一位架构师、一位程序员和 Claude 共同打造。

其中提到的“架构师”正是知名演员 米拉·乔沃维奇(Milla Jovovich)。她因在《生化危机》系列中饰演“爱丽丝”、《第五元素》中饰演“莉露”等经典角色而广为人知。

《生化危机》女主联手程序员打造AI记忆宫殿,本地开源拿下历史最高分96.6%

一位演员为何会与 AI 记忆系统产生关联?这源于她长期的个人兴趣与实践。据其自述,她私下一直在进行一个大型游戏项目,但在过程中深刻意识到:如何有效管理和利用信息,可能比项目本身更为关键

为此,她找到了相识二十多年的老朋友——资深程序员本·西格曼(Ben Sigman),共同研究这一问题。

《生化危机》女主联手程序员打造AI记忆宫殿,本地开源拿下历史最高分96.6%

大约六个月前,本向她介绍了 Claude 的 CLI 工具,这让她迅速意识到:对于热爱创作的开发者而言,AI 已经能够将想法直接转化为可运行的系统。于是,这个跨界组合正式成形。

在米拉·乔沃维奇看来,当前 AI 的核心局限在于其只能基于已有信息工作,而真正的创新源于人类的想象力与持续探索。因此,她与本希望通过开发 MemPalace,帮助开发者更好地利用既有知识,从而创造新事物。

目前,MemPalace 在开源社区的热度迅速攀升,其 GitHub 星标数在短时间内实现了显著增长。

《生化危机》女主联手程序员打造AI记忆宫殿,本地开源拿下历史最高分96.6%

已有开发者为其创建了前端界面。

《生化危机》女主联手程序员打造AI记忆宫殿,本地开源拿下历史最高分96.6%

项目地址
https://github.com/milla-jovovich/mempalace

参考链接
[1] https://x.com/JeremyNguyenPhD/status/2041335795450302916
[2] https://x.com/bensig/status/2041236952998171118


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/29394

(0)
上一篇 2小时前
下一篇 47分钟前

相关推荐

  • OpenResearcher:首个开源离线深度研究轨迹合成流水线,训练30B模型超越GPT-4.1与Claude-4-Opus

    训练一个能够像人类研究员一样执行“搜索→浏览→推理”的深度研究智能体,其核心瓶颈往往不在于模型本身的能力,而在于高质量、长程研究轨迹数据的严重匮乏。现有的数据采集方法要么依赖昂贵且不稳定的在线搜索API,要么只能生成2-5轮的浅层交互,远不足以覆盖真实深度研究中动辄数十轮甚至上百轮的复杂推理链条。 针对这一痛点,来自德克萨斯农工大学、滑铁卢大学、加州大学圣地…

    2026年3月29日
    21500
  • 清华开源AI课堂平台OpenMAIC:让AI学会“教人学习”,打造L4级自动驾驶式课堂体验

    最近,科技圈掀起了一股“养龙虾”的热潮。OpenClaw 的横空出世,引发了广泛关注。与此同时,清华大学的研究团队也开源了一只特别的“龙虾”。 这只“龙虾”的目标并非操控电脑或执行任务,而是致力于一项更具根本性的工作:让 AI 学会“教人学习”。它所构建的,是一种能够“讲、问、互动”的全新课堂形态。 设想一个场景:面对火爆的 OpenClaw,零基础用户想学…

    2026年3月16日
    2.8K00
  • MLIR能否成为HLS的未来?Dynamatic编译器深度实践揭示四大核心局限与机遇

    关键词:MLIR、HLS、高级综合、Dynamatic、编译器基础设施、数据流电路 当前,LLVM 是高级综合(HLS)工具的主流底层框架。然而,其固有的中间表示(IR)难以定制化地表达电路语义。MLIR 则承诺通过其自定义方言机制来解决这一问题。 论文:Is It a Good Idea to Build an HLS Tool on Top of MLI…

    2026年3月25日
    13900
  • 清华联合开源!首个基于MCP的RAG框架UltraRAG:零代码构建多模态检索增强生成系统

    首个基于 MCP 的 RAG 框架 UltraRAG:零代码构建多模态检索增强生成系统 UltraRAG 是一个基于 MCP 的开源检索增强生成框架,旨在让用户无需编写代码即可构建复杂的 RAG 系统。 RAG 系统通过让 AI 模型先检索相关信息再生成答案,从而显著提高回答的准确性。 UltraRAG 是由清华大学 THUNLP、东北大学 NEUIR、Op…

    2025年11月19日
    26800
  • 万亿参数开源巨兽!Yuan3.0 Ultra发布,专为企业多模态AI而生

    源Yuan3.0 Ultra多模态基础大模型正式开源 YuanLab.ai团队正式开源发布了 源Yuan3.0 Ultra 多模态基础大模型。 作为源3.0系列面向 万亿参数 规模打造的旗舰模型,它是当前业界仅有的三个万亿级开源多模态大模型之一。该模型将MoE大模型的训练效率优化系统性引入模型结构设计,并围绕企业应用及智能体工具调用等方面进行了深度优化,在多…

    2026年3月5日
    52100