QMD (Quantum Memory Database)是 Shopify 联合创始人兼 CEO Tobias Lütke (Tobi) 开发的本地语义搜索引擎。
核心价值:
实际效果:
底层技术:
核心架构:

⚠️ OpenClaw 版本需要 ≥ 2026.2.2
检查你的版本:
openclaw --version
如果版本低于 2026.2.2,需要先更新到最新版本。
推荐使用 Bun(速度更快):
# 使用 Bun 安装
bun install -g @tobilu/qmd
或使用 npm:
# 使用 npm 安装
npm install -g @tobilu/qmd
或直接运行(无需安装):
npx @tobilu/qmd ...
# 或
bunx @tobilu/qmd ...
QMD 需要支持 vector 扩展的 SQLite。
macOS 用户:
brew install sqlite
验证安装:
sqlite3 --version
# 应该显示版本号 ≥ 3.40.0
Linux 用户 (Ubuntu/Debian):
sudo apt update
sudo apt install sqlite3
验证安装:
sqlite3 --version
Windows 用户:
sqlite-tools-win-x64-*.zipC:\sqlite)C:\sqlite)
sqlite3 --version
qmd --version
如果显示版本号,说明安装成功。
根据你使用的版本和操作系统,配置文件位置:
OpenClaw 用户:
~/.openclaw/openclaw.jsonC:\Users\你的用户名\.openclaw\openclaw.json在配置文件中添加或修改以下内容:
{
"memory":{
"backend":"qmd",
"qmd":{
"limits":{
"timeoutMs":8000
}
}
}
}
配置说明:
backend: "qmd"- 切换到 QMD 记忆后端timeoutMs: 8000- 设置超时时间为 8 秒(默认 4 秒可能不够)💡 提示:所有操作系统的配置内容完全相同,只是文件路径不同
所有操作系统使用相同命令:
# 重启 OpenClaw Gateway 服务
openclaw gateway restart
重启后的行为:
验证 QMD 是否正常工作:
查看 OpenClaw 日志,确认 QMD 后端已启用:
openclaw logs --follow
如果看到类似 Using QMD memory backend的日志,说明配置成功。
我在启用 QMD 前后做了对比测试,结果让人惊喜。
测试问题:"我们三个月前讨论的那个项目,最后用的什么方案?"
对比项 | 启用前 | 启用后 | 改善幅度 |
|---|---|---|---|
上下文大小 | 8 万+ tokens | 削减 95%+ | - |
响应时间 | 45 秒(超时失败) | 2 秒 | 快 20+ 倍 |
API 成本 | $2.4 | $0.01 | 降低 200+ 倍 |
成功率 | 失败 | 成功 | ✅ |
结论:速度快了 20+ 倍,成本降低 200+ 倍,而且不会失败。
测试问题:"我们之前所有项目用过哪些技术栈?"
对比项 | 启用前 | 启用后 | 改善幅度 |
|---|---|---|---|
上下文大小 | 15000+ tokens | 削减 90%+ | - |
响应时间 | 25-30 秒 | 3 秒 | 快 10 倍 |
稳定性 | 容易触发 rate limit 卡死 | 从不卡死 | ✅ |
结论:速度提升 10 倍,再也没卡死过。
测试问题:"帮我写个函数"
对比项 | 启用前 | 启用后 | 改善幅度 |
|---|---|---|---|
上下文大小 | 5000+ tokens | 削减 95%+ | - |
响应时间 | 8-10 秒 | 1 秒 | 快 8-10 倍 |
体验 | 感觉慢 | 秒级响应 | 🚀 |
结论:日常使用体验天差地别。
大模型的推理时间和输入 token 数量基本成正比关系:
上下文大小 | 平均响应时间 | 成本水平 | 稳定性 |
|---|---|---|---|
200 tokens | 0.5-1 秒 | 💰 | ✅ |
2,000 tokens | 5-8 秒 | 💰💰💰 | ✅ |
10,000 tokens | 25-40 秒 | 💰💰💰💰 | ⚠️ |
50,000 tokens | 1-2 分钟 | 💰💰💰💰💰💰 | ❌ 容易超时 |
100,000+ tokens | 2-5 分钟 | 💰💰💰💰💰💰💰💰 | ❌ 基本失败 |
我的极端案例: 那个 20 万 token 的会话,单次请求成本高达 $6-8,而且基本上都是超时失败,钱白花了。
启用 QMD 后: 无论历史记录有多长,每次只提取最相关的几句话(通常削减 95% 以上)。
✅ 响应快了 5-50 倍 ✅ 成本降低 90-99% ✅ 精准度反而更高(因为噪音少了) ✅ 再也不会因为上下文太长而卡死或超时
未启用 QMD | 启用 QMD | |
|---|---|---|
响应速度 | 5-120 秒(长会话直接超时) | 1-3 秒(快 5-50 倍) |
Token 削减 | 完整上下文(5K-200K tokens) | 削减 60-97%(平均 95%+) |
单次 API 成本 | $0.05-8(长会话) | 降低 90-99% |
精准度 | 容易被干扰 | 93% 准确率 |
稳定性 | 长会话必卡死 | 从不卡死 |
隐私 | 数据本地 | 完全本地 |
成本 | 持续消耗 API | 完全免费 |
🔴 会话历史超过 1 万 token(基本上运行一周就会超过) 🔴 经常被慢速响应或卡死困扰(特别是长期会话) 🔴 单次请求成本超过 $1
传统系统:
QMD 系统:
完全安全:
根据实测数据:
OpenClaw 有自动回退机制:
不需要:
主要支持:
其他格式需要先转换为 Markdown 或文本格式。
非常高效:
可以调整以下参数:
{
"memory":{
"backend":"qmd",
"qmd":{
"limits":{
"timeoutMs":8000// 根据需要调整超时时间
}
}
}
}
存储空间取决于:
如果要卸载 QMD:
{
"memory": {
"backend": "sqlite" // 改回默认的 SQLite 后端
}
}
openclaw gateway restart
bun uninstall -g @tobilu/qmd
# 或
npm uninstall -g @tobilu/qmd
推荐阅读