跳至主要内容
小龙虾小龙虾AI
🤖

模型使用情况

使用 CodexBar CLI 本地成本使用情况来汇总 Codex 或 Claude 的每模型使用情况,包括当前(最近)模型或完整的模型细分。当被询问 CodexBar 的模型级别使用/成本数据时触发,或当你需要从 CodexBar 成本 JSON 生成可脚本化的每模型汇总时使用。

下载20.2k
星标70
版本1.0.0
安全通过
⚙️脚本

技能说明


name: model-usage description: 使用 CodexBar CLI 本地成本数据统计 Codex 或 Claude 的按模型用量,包含当前(最近一次)模型或完整的模型细分数据。当用户询问 codexbar 的模型级用量/成本数据时触发,或需要从 codexbar 成本 JSON 获取可编写脚本的按模型摘要时使用。 metadata: {"clawdbot":{"emoji":"📊","os":["darwin"],"requires":{"bins":["codexbar"]},"install":[{"id":"brew-cask","kind":"brew","cask":"steipete/tap/codexbar","bins":["codexbar"],"label":"安装 CodexBar (brew cask)"}]}}

模型用量统计

概述

从 CodexBar 的本地成本日志获取按模型划分的使用成本。支持 Codex 或 Claude 的"当前模型"(最近一次每日记录)或"所有模型"摘要统计。

待办:待 CodexBar CLI 的 Linux 安装路径文档完善后,补充 Linux CLI 支持指南。

快速开始

  1. 通过 CodexBar CLI 获取成本 JSON 或直接传入 JSON 文件
  2. 使用内置脚本按模型汇总数据
python {baseDir}/scripts/model_usage.py --provider codex --mode current
python {baseDir}/scripts/model_usage.py --provider codex --mode all
python {baseDir}/scripts/model_usage.py --provider claude --mode all --format json --pretty

当前模型逻辑

  • 使用最近一次包含 modelBreakdowns 的每日记录
  • 选择该记录中成本最高的模型
  • 当缺少细分数据时,回退到 modelsUsed 中的最后一条记录
  • 可通过 --model <name> 指定特定模型

输入方式

  • 默认行为:执行 codexbar cost --format json --provider <codex|claude>
  • 文件或标准输入:
codexbar cost --provider codex --format json > /tmp/cost.json
python {baseDir}/scripts/model_usage.py --input /tmp/cost.json --mode all
cat /tmp/cost.json | python {baseDir}/scripts/model_usage.py --input - --mode current

输出格式

  • 文本格式(默认)或 JSON 格式(使用 --format json --pretty
  • 数值仅显示各模型成本;CodexBar 输出中未按模型划分 token 用量

参考文档

  • 阅读 references/codexbar-cli.md 了解 CLI 参数和 cost JSON 字段。

如何使用「模型使用情况」?

  1. 打开小龙虾AI(Web 或 iOS App)
  2. 点击上方「立即使用」按钮,或在对话框中输入任务描述
  3. 小龙虾AI 会自动匹配并调用「模型使用情况」技能完成任务
  4. 结果即时呈现,支持继续对话优化

相关技能