《生化危机》女主联手打造开源AI记忆系统MemPalace,本地检索效率提升34%

2026/04/09 13:11阅读量 2

前《生化危机》女主角米拉·乔沃维奇(Milla Jovovich)与资深程序员Ben Sigman合作,在GitHub开源了名为MemPalace的AI记忆系统。该系统基于“记忆宫殿”理念构建空间化记忆结构,在长期记忆基准测试LongMemEval中创下96.6%的公开最高分,且所有数据处理均在本地完成以保障隐私。相比传统方案,其独特的分层加载机制将年成本从数百美元降至10美元,同时保持信息无损。

事件概述

知名演员米拉·乔沃维奇(Milla Jovovich)与程序员Ben Sigman合作开发了开源AI记忆系统MemPalace。该项目于2026年4月发布,迅速在GitHub引发关注,Star数在短时间内从3.3k激增至17.4k。系统核心特点是完全本地化运行、免费开源,并在多项长期记忆基准测试中刷新纪录。

核心性能与数据

  • 基准测试成绩
    • LongMemEval(长期记忆):96.6%(RAW模式),创公开可查史上最高分。
    • ConvoMem(短期记忆):92.9%
    • LoCoMo(超长周期记忆):100%
  • 检索效率:相比全局乱搜,引入空间结构后检索效率提升约34%
  • 成本对比:处理约1950万tokens(相当于6个月对话或200-400本书)的数据量时,传统压缩方案年成本约507美元且易丢失信息;MemPalace年成本仅10美元,且无信息损失。

技术架构与创新

1. “记忆宫殿”空间结构

不同于传统的向量数据库切片召回,MemPalace模拟人类记忆的空间组织方式:

  • Wing(翅膀):代表一个人或项目,作为独立空间入口。
  • Rooms(房间):按具体主题(如认证、计费)分类存储信息。
  • Halls(走廊):定义记忆属性(如建议、偏好、决策),连接不同房间。
  • Drawers(抽屉):存储原始对话记录,一字不动。
  • Closets(衣柜):存储内容的压缩摘要,供AI快速读取。
  • Tunnels(隧道):自动打通不同项目中相同主题的关联。

2. 分层记忆堆栈(Memory Stack)

为平衡效率与上下文限制,设计了按需加载机制:

  • L0+L1(常驻):约170 tokens,每次对话自动加载,包含基础自我认知和用户上下文。
  • L2(房间级):按需触发,进行局部召回。
  • L3(全局级):深度搜索,仅在必要时调用。
    逻辑遵循“最小成本理解 -> 局部补充 -> 全局搜索”的路径。

3. 专用语言AAAK

团队开发了一种缩写语言AAAK,旨在减少Token消耗。主流大模型可直接理解该格式,无需额外解码器。在表达大量重复实体时效果显著,但精度略低于RAW模式(AAAK模式召回率84.2%,RAW模式96.6%)。用户可根据需求选择精度优先或Token节省优先。

隐私与安全

  • 本地化处理:所有记忆的记录、结构化整理、检索与调用均在用户本地完成,不依赖远程服务器,杜绝云端数据泄露风险。
  • 事实校验:集成fact_checker.py工具,可在生成结果前自动检测并纠正前后信息矛盾(例如识别任务归属冲突)。

部署与使用

系统支持通过Python包管理工具安装,并提供多种挖掘模式:

  1. 安装pip install mempalace
  2. 初始化mempalace init ~/projects/my_app(创建本地主目录)
  3. 数据挖掘
    • 代码/文档:mempalace mine ~/projects/my_app
    • 聊天记录:mempalace mine ~/chats --mode convos
    • 通用提取:mempalace mine ~/chats --mode convos --extract general

使用模式

  • 自动模式:配合支持MCP工具的AI(如Claude),通过命令claude mcp add mempalace实现自动调用。
  • 手动增强:通过命令行mempalace wake-up加载基础记忆,或使用mempalace search检索特定内容注入提示词。
  • API调用:提供Python接口直接嵌入代码进行检索。

背景与动机

米拉·乔沃维奇因参与大型游戏项目开发,深感信息管理的重要性,遂邀请相识20多年的老友Ben Sigman共同研发。两人认为当前AI受限于既有信息,而创新源于持续探索,MemPalace旨在帮助开发者高效利用已有知识,释放创造力。

准备好启动您的定制项目了吗?

现在咨询,即可获得免费的业务梳理与技术架构建议方案。