OpenClaw节省Token方法:使用QMD检索本地文档

AI大语言模型

在开发中,使用的大模型可能是几年前开始训练的,知识库中的信息无法做到最新。特别是一些开源框架,更新迭代比较快,机器人很有可能使用一些已经废弃的方法。

如果让机器人自己上网查文档,一方面效率比较低,更重要的是1亿Token都不够用。比较好的办法是将在线文档下载到本地,使用QMD索引。

安装QMD:

bun install -g @tobilu/qmd

不要使用以下命令,装不上:

bun uninstall -g github:tobi/qmd

验证安装是否成功:

qmd --version

配置OpenClaw:

"memory": {
    "backend": "qmd",
    "qmd": {
        "paths": [
            {
                "name": "workspace",
                "path": "~/.openclaw/workspace/",
                "pattern": "*.md"
            }
        ]
    }
}

更新索引:

cd .openclaw
qmd update
qmd embed
qmd query "test" -c memory-root --json >/dev/null 2>&1
openclaw gateway restart

查看记忆状态:

openclaw memory status

返回如下信息:

Memory Search (main)
Provider: qmd (requested: qmd)
Model: qmd
Sources: memory
Indexed: 168/0 files · 168 chunks
Dirty: no
Store: ~/.openclaw/agents/main/qmd/xdg-cache/qmd/index.sqlite
Workspace: ~/.openclaw/workspace
By source:
  memory · 168/0 files · 168 chunks
Vector: ready
Batch: disabled (failures 0/0)
Issues:
  no memory files found in ~/.openclaw/workspace

如果Indexed的值为0,可能是你的工作区没有可供索引的文档,也或者配置失败。

AI大语言模型