Mem0:为 AI 代理添加长期记忆
- GitHub Stars: 46,900+
- 语言: Python (66.4%), TypeScript (20.7%)
- 许可证: Apache 2.0
该项目受欢迎的原因
Mem0 是一个为 AI 代理提供长期记忆的开源内存层。 LLM 在对话结束后会忘记上下文,Mem0 解决了这个问题。[GitHub]
在 LOCOMO 基准测试中,Mem0 的准确率比 OpenAI Memory 高 26%。[Mem0 Research] 响应速度快 91%,token 消耗量减少 90%。
三大核心功能
- 多层内存: 按用户、会话和代理单位分离存储记忆。
- 混合搜索: 结合了向量和图搜索。 支持 25 个以上的向量数据库。[Mem0 Docs]
- LLM 自动整理: LLM 处理事实提取、冲突解决和内存合并。
快速开始
# Python
pip install mem0ai
# JavaScript
npm install mem0ai
默认 LLM 是 OpenAI gpt-4.1-nano。 可以替换为 Anthropic、Ollama 等。
适用场景
应用于客户支持聊天机器人,可以记住之前的咨询。 在医疗保健领域,可用于追踪患者病史。 Netflix、Lemonade 等公司已经采用。[Mem0]
是 Y Combinator 孵化的项目,已获得 2400 万美元的投资。[YC]
注意事项
- 自托管时需要配置向量数据库。 如果没有基础设施经验,使用云平台更方便。
- v1.0.3 是最新版本。 在生产环境应用前请充分测试。
常见问题 (FAQ)
Q: Mem0 与普通 RAG 的区别是什么?
A: 普通 RAG 搜索文档以提供上下文,而 Mem0 从对话中自动提取事实、解决冲突并更新记忆。 Mem0 结合了向量和图搜索,提供更准确的上下文,并且可以单独管理每个用户的内存。
Q: Mem0 与哪些 LLM 兼容?
A: Mem0 与 OpenAI、Anthropic、Ollama 等 50 多个 LLM 提供商兼容。 默认值是 OpenAI gpt-4.1-nano,但可以在设置中更改。 向量数据库支持 Qdrant、Pinecone、ChromaDB 等 25 个以上。
Q: 可以免费使用吗?
A: 开源版本采用 Apache 2.0 许可证,完全免费。 您需要自己构建基础设施。 也有托管云平台,但需要单独付费。 如果是小型项目,开源版本就足够了。
如果本文对您有帮助,请订阅 AI Digester。
参考资料
- Mem0 GitHub 仓库 – GitHub
- Mem0 Research – Mem0 (2025)
- Mem0 Documentation – Mem0 Docs
- Mem0 – Y Combinator
- Mem0 – Mem0