OpenClaw 零成本实战指南:告别 Token 焦虑的正确姿势
最近在技术社区看到不少人讨论 OpenClaw 这个 AI Agent 工具。它的 Logo 像个虾钳,所以圈里人管这叫”养虾”。
和 ChatGPT 这种”你问我答”的聊天机器人不一样,AI Agent 是直接动手干活的。给它一个指令,它能读代码、找 Bug、分析文档,甚至从零搭建项目。
但不少新手配置好 API,跑了一晚上,第二天看账单就崩溃了——几百万 Token,几十美金没了。
这篇文章分享两个实测可用的零成本方案,以及如何避免不必要的 Token 消耗。
Token 消耗的真相
很多人以为发一句”帮我写个网页”,AI 就只收这一句话的钱。其实不是。
AI Agent 的核心模式是”循环迭代”。简单理解:
- 读取整个项目文件(消耗 5 万 Token)
- 写代码发现报错,开始反思(消耗 2 千 Token)
- 为了修复 Bug,把刚才读过的文件、写错的代码、报错信息全部再看一遍(消耗 6 万 Token)
80% 的成本浪费在重复阅读冗余上下文上。 不加限制,复杂任务分分钟能抽干钱包。
方案一:Google Gemini 免费额度
如果你电脑配置一般,可以考虑 Google 的 Gemini API 免费额度。
配置要点:
- 模型:Gemini 2.0 Flash
- 免费额度:每天 1500 次请求,每分钟 15 次
- 适用场景:日常改 Bug、写脚本、分析文档
注意事项:
OpenClaw 目前不直接支持 Gemini API。如果需要使用,需要通过兼容层或者等待官方支持。更稳妥的方案是使用 OpenAI 兼容的免费替代品,比如 Groq(提供 Llama 模型的免费 API)。
方案二:本地部署(完全免费)
如果你有 M 系列芯片的 Mac,或者 16G 显存以上的 PC,本地部署是最佳选择。
推荐组合:
- Ollama + Qwen2.5-Coder 或 DeepSeek-Coder
- 完全本地运行,断网可用
- Token 随便跑,不花一分钱
安装步骤:
1 | # 安装 Ollama |
付费模型的省钱技巧
遇到复杂任务,本地模型”智商不够”时,用付费模型要注意这几点:
1. 开启上下文缓存
把文档、代码库丢进缓存。命中缓存后,输入 Token 计费通常能打五折。
2. 任务原子化
不要给 Agent 甩一句”帮我做个淘宝”。正确的做法:
- “新建终端” -> 完成
- “写登录页面组件” -> 完成
每个小任务做完,清空对话历史,别让历史包袱成为计费负担。
3. 过滤无关文件
让 Agent 读代码前,加一条指令:”忽略 node_modules、.git 以及所有图片文件”。
安全提醒
免费 API 的代价:使用大厂免费 API,对话数据可能被用于训练。不要用免费 API 跑公司机密代码或带密码的配置文件。
权限控制:OpenClaw 权限较高。建议在配置文件中设置沙盒模式,避免误删系统文件。具体配置方法请查阅官方文档。
总结
把本地部署作为日常工具,只有在遇到真正复杂的技术问题时,才用付费大模型。这是 AI 时代个人开发者比较理性的选择。
本文基于 OpenClaw 实际使用经验整理。技术细节以官方文档为准。