OpenClaw千问Qwen提示:API rate limit reached
从2月份使用OpenClaw以来,一直使用的是Gemini大模型,因为Gemini送了2000多刀体验金。所以,较少遇到API限流的情况。
微信推出OpenClaw插件后,在腾讯云服务器(免费领取的国内轻量云)上新安装了OpenClaw,接入了千问Qwen大模型:OpenClaw配置千问大模型教程。
之所以在国内服务器上安装,是为了提升 AI 聊天的响应速度。配置一切顺利,粘贴命令后喝杯咖啡的功夫就好了。但,随意提了几个问题 AI 就报错了:
API rate limit reached. Please try again later
想必使用免费大模型 API 的朋友都没少见这条错误信息。果然,免费的东西从来都不便宜。
根据Qwen OAuth官方文档的描述,免费配额为2000次调用/天,理论上这个配额足够普通用户使用。
根据OpenClaw的架构设计,对大模型 API 的调用还是比较重的。工具调用、自动重试、心跳,一次对话可能就达到几十次调用。特别是批量处理文件的任务,就算付费 API 也常遇到限流。
之前使用Gemini时,上下文经常几十万tokens,TPM(每分钟Token量)经常超过百万tokens。如果不进行压缩优化,即使一句:你好!都可能是一次繁重的请求。
AI 大模型的调用,可能会有以下这些限制:
- RPM:Requests Per Minute,每分钟请求次数;
- RPD:Requests Per Day,每天请求次数;
- RPH:Requests Per Hour,每小时请求次数,比较少见;
- TPM:Tokens Per Minute,每分钟 Token 上限;
- TPD:Tokens Per Day,每天 Token 上限,比较少见。
对于免费大模型,还可能在用户请求高峰时段进行排队处理。
OpenClaw大模型调用优化
可以检查优化以下选项:
使用 /status 指令查看当前上下文(Context):
🦞 OpenClaw 2026.3.24 🧠 Model: anthropic/claude-opus-4-6 · 🔑 unknown 📚 Context: 0/200k (0%) · 🧹 Compactions: 0 🧵 Session: agent:main:main • updated just now ⚙️ Runtime: direct · Think: adaptive 🪢 Queue: collect (depth 0)
不同任务使用 /new 指令开启新会话,避免冗余长上下文;
使用QMD检索本地文档,避免OpenClaw全量查看资料;
减少OpenClaw Cron定时任务,可以使用系统Cron替代;
检查工作区心跳文件配置,清理不必要的心跳项:
~/.openclaw/workspace/HEARTBEAT.md降低心跳频率,避免后台频繁调用大模型:
openclaw config set agents.defaults.heartbeat.every "24h"除非必需,不要让 AI 在子代理中执行任务。高并发请求大模型 API 可能触发限制;
避免让 AI 直接批量阅读、处理文件,可以让 AI 编写 Python 脚本来批量处理;
不要使用单一模型处理所有请求,主模型使用轻量便宜或免费的大模型,备用模型使用高阶模型;
对话中使用 /model 切换模型,使用不同模型处理不同任务。
免费模型的能力通常较低,调用频率限制较为严格,也可以考虑购买便宜的Coding Plan套餐。例如优云智算6.9元/首月套餐,优云智算注册送5元永久有效赠金,抵扣后Coding Plan套餐最便宜只要1.9元。

