令牌使用和成本
OpenClaw 跟踪的是令牌而非字符。令牌是特定于模型的,但大多数 OpenAI 风格的模型对于英文文本平均每个令牌约 4 个字符。
系统提示的构建方式
OpenClaw 在每次运行时组装自己的系统提示。它包括:
- 工具列表 + 简短描述
- 技能列表(仅元数据;指令通过
read按需加载) - 自我更新指令
- 工作空间 + 引导文件(新建时的
AGENTS.md、SOUL.md、TOOLS.md、IDENTITY.md、USER.md、HEARTBEAT.md、BOOTSTRAP.md)。大文件会被agents.defaults.bootstrapMaxChars截断(默认值:20000)。 - 时间(UTC + 用户时区)
- 回复标签 + 心跳行为
- 运行时元数据(主机/操作系统/模型/思考)
在系统提示中查看完整细节。
上下文窗口中的计数内容
模型接收的所有内容都会计入上下文限制:
- 系统提示(上述列出的所有部分)
- 对话历史(用户 + 助手消息)
- 工具调用和工具结果
- 附件/转录(图像、音频、文件)
- 压缩摘要和修剪产物
- 提供商包装器或安全头(不可见,但仍计数)
要获取实际细节(每个注入文件、工具、技能和系统提示大小),使用 /context list 或 /context detail。参见上下文。
如何查看当前令牌使用量
在聊天中使用以下命令:
/status→ 表情符号丰富的状态卡,显示会话模型、上下文使用情况、 最后响应的输入/输出令牌,以及估算成本(仅限 API 密钥)。/usage off|tokens|full→ 在每次回复中附加每响应使用量页脚。- 按会话持久化(存储为
responseUsage)。 - OAuth 认证隐藏成本(仅显示令牌)。
- 按会话持久化(存储为
/usage cost→ 从 OpenClaw 会话日志显示本地成本摘要。
其他界面:
- TUI/Web TUI: 支持
/status+/usage。 - CLI:
openclaw status --usage和openclaw channels list显示 提供商配额窗口(非每响应成本)。
成本估算(显示时)
成本根据模型定价配置估算:
models.providers.<provider>.models[].cost这些是 input、output、cacheRead 和 cacheWrite 的每百万令牌美元价格。如果缺少定价,OpenClaw 仅显示令牌。OAuth 令牌 从不显示美元成本。
缓存 TTL 和修剪影响
提供商提示缓存仅在缓存 TTL 窗口内适用。OpenClaw 可以 选择性运行缓存 TTL 修剪:当缓存 TTL 过期后修剪会话,然后重置缓存窗口,以便后续请求可以重用 新缓存的上下文而不是重新缓存完整历史。这在会话空闲超过 TTL 时保持较低的缓存 写入成本。
心跳可以在空闲间隙中保持缓存热度。如果模型缓存 TTL 是 1h,将心跳间隔设置为略低于该值(例如 55m)可以避免 重新缓存完整提示,从而降低缓存写入成本。
对于 Anthropic API 定价,缓存读取比输入令牌便宜得多,而缓存写入按更高倍数计费。查看 Anthropic 的 提示缓存定价以获取最新费率和 TTL 倍数: https://docs.anthropic.com/docs/build-with-claude/prompt-caching
示例:使用心跳保持 1 小时缓存热度
yaml
agents:
defaults:
model:
primary: "anthropic/claude-opus-4-5"
models:
"anthropic/claude-opus-4-5":
params:
cacheRetention: "long"
heartbeat:
every: "55m"减少令牌压力的技巧
- 使用
/compact总结长会话。 - 在工作流中修剪大型工具输出。
- 保持技能描述简短(技能列表会注入提示)。
- 对于冗长的探索性工作优先使用较小的模型。
参见技能了解确切的技能列表开销公式。