微信分享缩略图
  • {{ post.title }}

    {{ post.excerpt }}

    {{ post.author_name || settings.site_author || 'Admin' }} {{ formatDate(post.published_at || post.created_at) }} {{ post.view_count }} {{ post.comment_count }}

[推荐] MemPalace:史上评分最高的 AI 记忆系统

[推荐] MemPalace:史上评分最高的 AI 记忆系统

摘要:MemPalace 是 GitHub 上评分最高的 AI 记忆系统,LongMemEval R@5 达到 96.6%。它用古希腊"记忆宫殿"法组织 AI 对话记忆,存储一切原始对话,让结构化检索准确率提升 34%。完全免费,本地运行,零 API 调用。


项目信息

项目 详情
作者 Milla Jovovich & Ben Sigman
GitHub https://github.com/MemPalace/mempalace
Stars 44,421
协议 开源免费
核心定位 AI 对话记忆管理系统
特色 记忆宫殿法 + 原始存储 + 96.6% LongMemEval 最高分

它解决什么问题

你跟 AI 聊了六个月,1950 万个 token 的决策、调试记录、架构讨论——会话结束后全没了。

MemPalace 说:别慌,我帮你记着。

方案 加载 Token 数 年成本
全部粘贴 19.5M — 超出所有上下文窗口 不可能
LLM 摘要 ~650K ~$507/年
MemPalace wake-up ~170 tokens ~$0.70/年

核心功能

记忆宫殿法

灵感来自古希腊演说家的记忆宫殿——把想法放在虚拟建筑的房间里,走进去就能找到。

  WING: 项目 A
    ├── Room: auth-migration
    │   └── Closet → Drawer(原始对话)
    ├── Room: graphql-switch
    │   └── Closet → Drawer(原始对话)
    └── Room: ci-pipeline
        └── Closet → Drawer(原始对话)
         ↓ tunnel
  WING: 项目 B
    ├── Room: auth-migration  ← 同样的话题,不同项目
  • Wing(侧翼)——一个人或一个项目
  • Room(房间)——具体话题
  • Hall(走廊)——记忆类型(facts/events/discoveries/preferences/advice)
  • Closet(壁橱)——摘要,指向原文
  • Drawer(抽屉)——原始对话,一字不丢
  • Tunnel(隧道)——跨项目的相同话题自动连接

结构化检索提升 34%

搜索方式 准确率 R@10 提升
搜所有壁橱 60.9%
仅搜 Wing 73.1% +12%
Wing + Hall 84.8% +24%
Wing + Room 94.8% +34%

这不是装饰,是质变。

记忆栈分层

层级 内容 大小 时机
L0 身份 — AI 是谁 ~50 tokens 始终加载
L1 关键事实 — 团队、项目、偏好 ~120 tokens 始终加载
L2 房间召回 — 最近会话 按需 话题出现时
L3 深度搜索 — 语义查询 按需 明确询问时

AI 醒来只需 L0+L1(~170 tokens)就知道你的世界。搜索只在需要时触发。

三种挖掘模式

mempalace mine ~/projects/myapp           # 项目 — 代码、文档、笔记
mempalace mine ~/chats/ --mode convos     # 对话 — Claude、ChatGPT、Slack 导出
mempalace mine ~/chats/ --mode convos --extract general  # 自动分类为决策/里程碑/问题

适用场景

强烈推荐

  • AI 对话量大,需要持久记忆
  • 多个项目/团队,需要跨项目检索
  • 希望用结构化方式组织记忆,而非扁平搜索
  • 本地运行,零成本

不推荐

  • 对话量小,手动记录就够了
  • 不需要跨会话记忆
  • 不想安装额外的数据库(ChromaDB)

个人评价

值得学习的点

  1. 记忆宫殿法把"存储一切"变成"存储一切 + 结构导航",34% 的检索提升是实打实的
  2. L0+L1 唤醒只需 170 tokens,比每次加载整个记忆文件高效 100 倍
  3. 原始存储不做摘要提取——保留一切,让语义搜索去找,不烧 LLM 决定什么"值得记"

不足

  • AAAK 压缩语言是有损的,小规模不省 token,LongMemEval 上 84.2% 退步于原始模式 96.6%
  • ChromaDB 需要本地安装,对非技术用户有门槛
  • README 中部分数据被社区指出有误导性(作者 48 小时内公开承认并修正)

推荐指数:⭐⭐⭐⭐⭐(需要 AI 持久记忆系统的用户)

一句话:宁愿正确,不愿唬人。"We'd rather be right than impressive." —— 这句话比 44K 星更值钱。

{{ currentPost.title }}

评论 ({{ comments.length }})

正在回复 @{{ replyTo.author_name }} 取消回复

暂无评论,来说两句吧

{{ settings.about_title || '个人简介' }}

搜索中...
没有找到相关文章
{{ r.title }}
{{ r.category_name }} {{ formatDate(r.published_at || r.created_at) }} {{ r.view_count }} 次阅读

{{ r.excerpt }}

评论通过

评论未通过

等待审核

{{ aiModalData.review || aiModalData.message }}

{{ toast.message }}