最近在技术社区看到不少人讨论 OpenClaw 这个 AI Agent 工具。它的 Logo 像个虾钳,所以圈里人管这叫”养虾”。

和 ChatGPT 这种”你问我答”的聊天机器人不一样,AI Agent 是直接动手干活的。给它一个指令,它能读代码、找 Bug、分析文档,甚至从零搭建项目。

但不少新手配置好 API,跑了一晚上,第二天看账单就崩溃了——几百万 Token,几十美金没了。

这篇文章分享两个实测可用的零成本方案,以及如何避免不必要的 Token 消耗。

Token 消耗的真相

很多人以为发一句”帮我写个网页”,AI 就只收这一句话的钱。其实不是。

AI Agent 的核心模式是”循环迭代”。简单理解:

  1. 读取整个项目文件(消耗 5 万 Token)
  2. 写代码发现报错,开始反思(消耗 2 千 Token)
  3. 为了修复 Bug,把刚才读过的文件、写错的代码、报错信息全部再看一遍(消耗 6 万 Token)

80% 的成本浪费在重复阅读冗余上下文上。 不加限制,复杂任务分分钟能抽干钱包。

方案一:Google Gemini 免费额度

如果你电脑配置一般,可以考虑 Google 的 Gemini API 免费额度。

配置要点

  • 模型:Gemini 2.0 Flash
  • 免费额度:每天 1500 次请求,每分钟 15 次
  • 适用场景:日常改 Bug、写脚本、分析文档

注意事项
OpenClaw 目前不直接支持 Gemini API。如果需要使用,需要通过兼容层或者等待官方支持。更稳妥的方案是使用 OpenAI 兼容的免费替代品,比如 Groq(提供 Llama 模型的免费 API)。

方案二:本地部署(完全免费)

如果你有 M 系列芯片的 Mac,或者 16G 显存以上的 PC,本地部署是最佳选择。

推荐组合

  • Ollama + Qwen2.5-Coder 或 DeepSeek-Coder
  • 完全本地运行,断网可用
  • Token 随便跑,不花一分钱

安装步骤

1
2
3
4
5
6
7
8
# 安装 Ollama
curl -fsSL https://ollama.ai/install.sh | sh

# 下载代码模型
ollama pull qwen2.5-coder:7b

# OpenClaw 配置本地模型
openclaw config set model "ollama:qwen2.5-coder:7b"

付费模型的省钱技巧

遇到复杂任务,本地模型”智商不够”时,用付费模型要注意这几点:

1. 开启上下文缓存

把文档、代码库丢进缓存。命中缓存后,输入 Token 计费通常能打五折。

2. 任务原子化

不要给 Agent 甩一句”帮我做个淘宝”。正确的做法:

  • “新建终端” -> 完成
  • “写登录页面组件” -> 完成

每个小任务做完,清空对话历史,别让历史包袱成为计费负担。

3. 过滤无关文件

让 Agent 读代码前,加一条指令:”忽略 node_modules、.git 以及所有图片文件”。

安全提醒

  1. 免费 API 的代价:使用大厂免费 API,对话数据可能被用于训练。不要用免费 API 跑公司机密代码或带密码的配置文件。

  2. 权限控制:OpenClaw 权限较高。建议在配置文件中设置沙盒模式,避免误删系统文件。具体配置方法请查阅官方文档。

总结

把本地部署作为日常工具,只有在遇到真正复杂的技术问题时,才用付费大模型。这是 AI 时代个人开发者比较理性的选择。


本文基于 OpenClaw 实际使用经验整理。技术细节以官方文档为准。