free-claude-code 深度分析:给 Claude Code 套上免费代理的正确方式
Claude Code 是 Anthropic 推出的终端 AI 编程助手,功能对标 GitHub Copilot CLI 和 OpenClaw 的 coding agent 模式——直接在终端里读取项目、修改文件、执行命令。但官方 API 按量计费,重度使用一天烧掉几十美元并不稀奇。如何免费使用 Claude Code 成为许多开发者关注的问题。
free-claude-code(MIT 协议)是一个 Claude Code 免费代理工具,它截获 Claude Code 的 Anthropic Messages API 请求,路由到六种替代后端——包括 NVIDIA NIM 的免费接口、OpenRouter 的免费模型、以及本地运行的推理引擎。简言之:保留 Claude Code 的客户端体验,后端换成免费或自建的模型服务,实现零成本或极低成本的 Claude Code 日常使用。
本文从架构、部署、提供商标配三个维度分析该项目,并给出适用场景判断和踩坑提示。
架构:一个 FastAPI 代理的灵活设计
整个项目核心是一个 FastAPI 应用(约 30 行入口 + 多层模块),在 Claude Code CLI/IDE 与模型提供商之间充当透明代理。
1 | Claude Code CLI / VS Code / JetBrains |
关键模块职责:
| 模块 | 职责 |
|---|---|
server.py |
ASGI 入口,启动 FastAPI |
api/ |
FastAPI 路由、服务层、模型路由、请求优化 |
core/ |
Anthropic 协议公共组件、SSE 工具 |
providers/ |
各提供商传输层、注册中心、限流器 |
messaging/ |
Discord/Telegram 机器人适配、会话管理、语音 |
config/ |
设置、提供商目录、日志配置 |
它的设计思路很清晰:适配层隔离。无论后端是 OpenAI Chat 接口还是 Anthropic Messages 接口,代理层统一转换成 Claude Code 期望的 SSE 流格式。NVIDIA NIM 走 OpenAI Chat 翻译,其余走原生 Anthropic Messages 传输。这种架构使得添加新提供商只需实现 OpenAIChatTransport 或 AnthropicMessagesTransport 基类即可。
提供商对比
NVIDIA NIM(推荐起点)
- 免费额度:NVIDIA 官方提供免费的 API Key,注册即用
- 可用模型:GLM-4.7、Kimi K2.5、MiniMax-M2.5 等
- 协议:OpenAI Chat → 代理自动翻译为 Anthropic SSE
- 评语:目前最实用的免费方案,无需本地 GPU,开箱即用
OpenRouter
- 免费模型:大量社区免费模型(如 Step-3.5-Flash)
- 付费模型:也可路由到 DeepSeek、GPT-4 等付费模型
- 协议:原生 Anthropic Messages 接口
- 评语:模型选择最多,但免费模型质量参差不齐,需自行筛选
DeepSeek
- 费用:极低,远低于 Anthropic 官方
- 端点:DeepSeek 的 Anthropic 兼容端点
- 协议:原生 Anthropic Messages
- 评语:低成本高性价比选项,适合轻度日常使用
本地方案(LM Studio / llama.cpp / Ollama)
- 费用:零(仅需硬件)
- 要求:本地 GPU 推理,模型需支持 tool use
- 协议:Anthropic Messages(部分需适配)
- 评语:完全离线,数据不外泄,但速度和质量受限于本地硬件
多级路由
项目支持按模型层级(Opus / Sonnet / Haiku)配置不同提供商:
1 | MODEL_OPUS="nvidia_nim/moonshotai/kimi-k2.5" |
这种设计允许用户为不同复杂度任务分配不同质量的模型,既能省钱又能保证关键任务的质量。
部署与使用
快速启动
1 | git clone https://github.com/Alishahryar1/free-claude-code.git |
对接 Claude Code
1 | ANTHROPIC_AUTH_TOKEN="freecc" \ |
VS Code 用户只需在 settings.json 中设置 claudeCode.environmentVariables,指向 localhost:8082。
额外能力
- Discord/Telegram 机器人:远程启动 Claude Code 会话,支持 /stop、/clear 等指令
- 语音输入:Whisper 转录,支持本地或 NVIDIA NIM 后端
- claude-pick:启动时交互式选择模型
对比 OpenClaw 的零成本方案
之前博文 《OpenClaw 零成本实战指南》 提到的方案是搭配 DeepSeek API + 上下文管理降低成本。free-claude-code 走的是另一条路:复用 Claude Code 的客户端体验,换掉背后的模型。
| 维度 | OpenClaw + DeepSeek | free-claude-code |
|---|---|---|
| 客户端 | OpenClaw 原生 | Claude Code CLI |
| 模型来源 | 单一 API | 6种后端 + 路由 |
| 免费方案 | DeepSeek API(极低成本) | NVIDIA NIM(完全免费) |
| 本地模型 | 需额外配置 | 原生支持 Ollama/llama.cpp |
| bot 远程 | 飞书推送/交互 | Discord/Telegram |
| 协议 | OpenAI Chat | Anthropic Messages |
两者并不矛盾——free-claude-code 解决的是”如何不花钱用 Claude Code”的问题,而 OpenClaw 自有其 Agent 生态和 skill 系统的优势。实际使用中可以各取所需。
风险评估
模型能力降级
这是最核心的成本。Claude Code 默认使用 Sonnet/Opus 级别的模型,替换为 GLM-4.7 或 Kimi 后,代码生成、工具调用、错误理解的质量必然会下降。对于简单的文件读写、正则替换影响不大,但对于复杂重构、多文件联调,需要注意验证结果。
Tool Call 兼容性
某些 OpenAI 兼容模型输出 malformed tool-call delta、缺失 tool name、或直接把 tool call 以文本形式返回。README 明确承认这一点,并建议遇到时切换模型。实际使用中建议先测试目标模型对复杂 tool use 的支持程度。
数据安全
NVIDIA NIM、OpenRouter、DeepSeek 均为云端 API,项目数据会经过第三方服务器。对于商业项目或敏感代码,应优先使用本地方案(Ollama / llama.cpp)。
速率限制
免费接口通常有严格的速率限制。项目默认配置 PROVIDER_RATE_LIMIT=1(每秒1请求),在高频任务中可能成为瓶颈。需要根据实际使用调整。
结论
free-claude-code 是一个设计良好的 Claude Code 代理工具,核心价值在于:
- 零成本入门——NVIDIA NIM 免费 Key 即可体验完整的 Claude Code 工作流
- 灵活的提供商路由——按任务复杂度分配模型,精细化控制成本
- 本地模型支持——满足数据隐私需求的离线方案
- 机器人扩展——远程/异步协作场景
适合人群:想试用 Claude Code 但不想付费的开发者、需要本地推理的数据敏感团队、以及做多模型对比评测的研究者。
不适合人群:追求最优代码质量的用户(模型降级是硬伤)、对第三方数据安全敏感且缺乏本地硬件的用户。
项目仍处于活跃开发中,24 个 open issues、20 个 open PRs 表明社区参与度较高。MIT 协议也允许自由 fork 和定制。如果需要一个「Claude Code 免费体验版」,这是当前最好的选择。
常见问题
free-claude-code 是完全免费的吗?
项目本身是 MIT 协议的开源软件,完全免费。使用哪个后端决定了你的运行成本:NVIDIA NIM 有免费额度,OpenRouter 有免费模型,本地方案零成本。付费 API(如 DeepSeek)费用也远低于 Anthropic 官方。
会降低 Claude Code 的能力吗?
视具体模型而定。Claude Code 最擅长的是 Anthropic 自家模型(Sonnet/Opus)。替换为第三方模型后,代码生成质量和工具调用准确率通常会下降,尤其是复杂重构和多文件联调场景。建议从 NVIDIA NIM 的 GLM-4.7 入手测试,确认工具调用兼容性后再切换更复杂的任务。
需要 GPU 吗?
需要也不需。使用 NVIDIA NIM、OpenRouter、DeepSeek 等云端方案不需要本地 GPU。使用 LM Studio、llama.cpp、Ollama 等本地方案则需要本地 GPU(或 CPU 推理,但速度较慢)。
数据安全吗?
云端方案(NIM / OpenRouter / DeepSeek)的数据会经过第三方服务器。如果代码敏感,优先使用本地方案。项目本身不存储或记录请求数据。
能用于团队协作吗?
可以。项目内置 Discord 和 Telegram 机器人适配器,支持远程启动 Claude Code 会话、流式输出、任务停止等操作。
如何配置 NVIDIA NIM 免费 Key?
访问 NVIDIA NIM API 控制台,注册 NVIDIA 开发者账号即可免费获取 API Key。在 free-claude-code 项目 .env 文件中设置 NVIDIA_NIM_API_KEY 即可。无需绑定支付方式。
和 OpenClaw 相比哪个更好?
两者定位不同。free-claude-code 解决的是”如何不花钱用 Claude Code”的问题,而 OpenClaw 自有其 Agent 生态和 skill 系统的优势。实际使用中可以各取所需,甚至组合使用——用 free-claude-code 做 Claude Code 前端体验,用 OpenClaw 做自动化工作流编排。
参考链接

