OpenMemory MCP 是由 Mem0 团队开发的开源项目,可以为你的 MCP兼容客户端(如Cursor、Claude Desktop、Windsurf)添加共享、持久、低摩擦的记忆功能。本教程将详细介绍托管版和自托管两种部署方式,让你的AI在不同会话间保持记忆连续性。
目前有 2种方案 来部署OpenMemory MCP Server:
💡 建议使用本地自托管方案,虽然需要几分钟配置,但更稳定可靠。
托管版是最快速的开始方式——零配置,无需任何本地设置。
add_memories、search_memory 等标准操作访问 app.openmemory.dev 注册账号并获取你的 OPENMEMORY_API_KEY。
获取API Key后,使用以下命令将OpenMemory连接到你喜欢的客户端(将 your-key 替换为你的实际API Key):
💡 提示:下面命令会自动安装OpenMemory MCP Server,并连接到你的客户端,无需你在Cursor/Claude Desktop/Windsurf中手动配置MCP Server。
npx @openmemory/install --client claude --env OPENMEMORY_API_KEY=your-key
npx @openmemory/install --client cursor --env OPENMEMORY_API_KEY=your-key
npx @openmemory/install --client windsurf --env OPENMEMORY_API_KEY=your-key
如果你更倾向于在本地运行OpenMemory,可以按照以下步骤进行自托管部署。
运行以下命令可以快速启动OpenMemory:
curl -sL https://raw.githubusercontent.com/mem0ai/mem0/main/openmemory/run.sh | bash
你需要将 OPENAI_API_KEY 设置为全局环境变量:
export OPENAI_API_KEY=your_api_key
或者直接在命令中传递API Key作为参数:
curl -sL https://raw.githubusercontent.com/mem0ai/mem0/main/openmemory/run.sh | OPENAI_API_KEY=your_api_key bash
# 克隆仓库
git clone https://github.com/mem0ai/mem0.git
cd mem0/openmemory
在运行项目之前,需要为API和UI配置环境变量。你可以通过以下方式之一完成:
在以下目录中创建 .env 文件:
/api/.env/ui/.envcp api/.env.example api/.env
cp ui/.env.example ui/.env
make env
/api/.env 示例内容OPENAI_API_KEY=sk-xxx
USER=<user-id> # 你想要关联记忆的用户ID
/ui/.env 示例内容NEXT_PUBLIC_API_URL=http://localhost:8765
NEXT_PUBLIC_USER_ID=<user-id> # 与api中的用户ID相同
使用以下两个命令运行项目:
make build # 构建MCP服务器和UI
make up # 运行OpenMemory MCP服务器和UI
如果 make build 报错,通常是以下原因:
Cannot connect to the Docker daemon at unix:///xxxxx/.docker/run/docker.sock. Is the docker daemon running?sudo systemctl start docker(Linux)即可。/api/.env 或 /ui/.env 文件内容未正确设置,请检查环境变量是否填写完整。.env 文件已正确配置,仍提示 "The 'NEXT_PUBLIC_API_URL' variable is not set." 警告。make build 前,先手动导出环境变量:# 先导出环境变量(USER_ID需与你的.env文件保持一致)
export NEXT_PUBLIC_API_URL=http://localhost:8765
export NEXT_PUBLIC_USER_ID=your-user-id
# 然后再执行构建
make build
make up
运行这些命令后,你将获得:
http://localhost:8765(API文档:http://localhost:8765/docs)http://localhost:3000
(OpenMemory UI 页面)
如果UI在 http://localhost:3000 无法正常启动,尝试手动运行:
cd ui
pnpm install
pnpm dev
使用以下命令配置MCP客户端(将 username 替换为你的用户名, 将 client-name 替换为所需的客户端名称,比如 cursor、claude、windsurf):
npx @openmemory/install local "http://localhost:8765/mcp/cursor/sse/username" --client client-name
(OpenMemory MCP 配置MCP客户端)
配置完成后,OpenMemory仪表板将在 http://localhost:3000 可用。你可以在这里:
部署完成后,你的AI客户端将获得以下记忆操作工具:
| 工具名称 | 功能说明 |
|---|---|
add_memories |
存储新的内存对象,让AI记住重要信息 |
search_memory |
检索相关记忆,根据关键词或上下文查找已存储的信息 |
list_memories |
查看所有已存储的内存,浏览完整记忆列表 |
delete_all_memories |
完全清除内存,重置所有已存储的记忆数据 |
| 方案 | 优点 | 缺点 | 适用场景 |
|---|---|---|---|
| 托管版 (不推荐) |
零配置、即开即用 | 官方服务不稳定(504错误)、数据存储在云端 | 不建议使用 |
| 快速启动 | 一键部署 | 数据不持久 | 测试体验 |
| 完整部署 (✅ 推荐) |
数据持久、完全控制、稳定可靠 | 配置步骤较多(约5分钟) | 生产环境、长期使用 |
无论选择哪种方式,OpenMemory MCP都能为你的AI工作流带来跨会话记忆能力,让AI更好地理解你的项目背景和工作偏好。
https://github.com/mem0ai/mem0/tree/main/openmemory