Claude Code 是 Anthropic 推出的终端 AI 编程助手,功能对标 GitHub Copilot CLI 和 OpenClaw 的 coding agent 模式——直接在终端里读取项目、修改文件、执行命令。但官方 API 按量计费,重度使用一天烧掉几十美元并不稀奇。如何免费使用 Claude Code 成为许多开发者关注的问题。

free-claude-code(MIT 协议)是一个 Claude Code 免费代理工具,它截获 Claude Code 的 Anthropic Messages API 请求,路由到六种替代后端——包括 NVIDIA NIM 的免费接口、OpenRouter 的免费模型、以及本地运行的推理引擎。简言之:保留 Claude Code 的客户端体验,后端换成免费或自建的模型服务,实现零成本或极低成本的 Claude Code 日常使用。

本文从架构、部署、提供商标配三个维度分析该项目,并给出适用场景判断和踩坑提示。


架构:一个 FastAPI 代理的灵活设计

整个项目核心是一个 FastAPI 应用(约 30 行入口 + 多层模块),在 Claude Code CLI/IDE 与模型提供商之间充当透明代理。

1
2
3
4
5
6
7
8
9
Claude Code CLI / VS Code / JetBrains
|
| Anthropic Messages API (HTTP/SSE)
v
free-claude-code proxy (:8082)
|
| provider-specific adapter
v
NVIDIA NIM / OpenRouter / DeepSeek / LM Studio / llama.cpp / Ollama

关键模块职责:

模块 职责
server.py ASGI 入口,启动 FastAPI
api/ FastAPI 路由、服务层、模型路由、请求优化
core/ Anthropic 协议公共组件、SSE 工具
providers/ 各提供商传输层、注册中心、限流器
messaging/ Discord/Telegram 机器人适配、会话管理、语音
config/ 设置、提供商目录、日志配置

它的设计思路很清晰:适配层隔离。无论后端是 OpenAI Chat 接口还是 Anthropic Messages 接口,代理层统一转换成 Claude Code 期望的 SSE 流格式。NVIDIA NIM 走 OpenAI Chat 翻译,其余走原生 Anthropic Messages 传输。这种架构使得添加新提供商只需实现 OpenAIChatTransportAnthropicMessagesTransport 基类即可。


提供商对比

NVIDIA NIM(推荐起点)

  • 免费额度:NVIDIA 官方提供免费的 API Key,注册即用
  • 可用模型:GLM-4.7、Kimi K2.5、MiniMax-M2.5 等
  • 协议:OpenAI Chat → 代理自动翻译为 Anthropic SSE
  • 评语:目前最实用的免费方案,无需本地 GPU,开箱即用

OpenRouter

  • 免费模型:大量社区免费模型(如 Step-3.5-Flash)
  • 付费模型:也可路由到 DeepSeek、GPT-4 等付费模型
  • 协议:原生 Anthropic Messages 接口
  • 评语:模型选择最多,但免费模型质量参差不齐,需自行筛选

DeepSeek

  • 费用:极低,远低于 Anthropic 官方
  • 端点:DeepSeek 的 Anthropic 兼容端点
  • 协议:原生 Anthropic Messages
  • 评语:低成本高性价比选项,适合轻度日常使用

本地方案(LM Studio / llama.cpp / Ollama)

  • 费用:零(仅需硬件)
  • 要求:本地 GPU 推理,模型需支持 tool use
  • 协议:Anthropic Messages(部分需适配)
  • 评语:完全离线,数据不外泄,但速度和质量受限于本地硬件

多级路由

项目支持按模型层级(Opus / Sonnet / Haiku)配置不同提供商:

1
2
3
4
MODEL_OPUS="nvidia_nim/moonshotai/kimi-k2.5"
MODEL_SONNET="open_router/deepseek/deepseek-r1-0528:free"
MODEL_HAIKU="lmstudio/unsloth/GLM-4.7-Flash-GGUF"
MODEL="nvidia_nim/z-ai/glm4.7"

这种设计允许用户为不同复杂度任务分配不同质量的模型,既能省钱又能保证关键任务的质量。


部署与使用

快速启动

1
2
3
4
5
git clone https://github.com/Alishahryar1/free-claude-code.git
cd free-claude-code
cp .env.example .env
# 编辑 .env,配置 NVIDIA_NIM_API_KEY 等
uv run uvicorn server:app --host 0.0.0.0 --port 8082

对接 Claude Code

1
2
3
ANTHROPIC_AUTH_TOKEN="freecc" \
ANTHROPIC_BASE_URL="http://localhost:8082" \
claude

VS Code 用户只需在 settings.json 中设置 claudeCode.environmentVariables,指向 localhost:8082。

额外能力

  • Discord/Telegram 机器人:远程启动 Claude Code 会话,支持 /stop、/clear 等指令
  • 语音输入:Whisper 转录,支持本地或 NVIDIA NIM 后端
  • claude-pick:启动时交互式选择模型

对比 OpenClaw 的零成本方案

之前博文 《OpenClaw 零成本实战指南》 提到的方案是搭配 DeepSeek API + 上下文管理降低成本。free-claude-code 走的是另一条路:复用 Claude Code 的客户端体验,换掉背后的模型

维度 OpenClaw + DeepSeek free-claude-code
客户端 OpenClaw 原生 Claude Code CLI
模型来源 单一 API 6种后端 + 路由
免费方案 DeepSeek API(极低成本) NVIDIA NIM(完全免费)
本地模型 需额外配置 原生支持 Ollama/llama.cpp
bot 远程 飞书推送/交互 Discord/Telegram
协议 OpenAI Chat Anthropic Messages

两者并不矛盾——free-claude-code 解决的是”如何不花钱用 Claude Code”的问题,而 OpenClaw 自有其 Agent 生态和 skill 系统的优势。实际使用中可以各取所需。


风险评估

模型能力降级

这是最核心的成本。Claude Code 默认使用 Sonnet/Opus 级别的模型,替换为 GLM-4.7 或 Kimi 后,代码生成、工具调用、错误理解的质量必然会下降。对于简单的文件读写、正则替换影响不大,但对于复杂重构、多文件联调,需要注意验证结果。

Tool Call 兼容性

某些 OpenAI 兼容模型输出 malformed tool-call delta、缺失 tool name、或直接把 tool call 以文本形式返回。README 明确承认这一点,并建议遇到时切换模型。实际使用中建议先测试目标模型对复杂 tool use 的支持程度。

数据安全

NVIDIA NIM、OpenRouter、DeepSeek 均为云端 API,项目数据会经过第三方服务器。对于商业项目或敏感代码,应优先使用本地方案(Ollama / llama.cpp)。

速率限制

免费接口通常有严格的速率限制。项目默认配置 PROVIDER_RATE_LIMIT=1(每秒1请求),在高频任务中可能成为瓶颈。需要根据实际使用调整。


结论

free-claude-code 是一个设计良好的 Claude Code 代理工具,核心价值在于:

  1. 零成本入门——NVIDIA NIM 免费 Key 即可体验完整的 Claude Code 工作流
  2. 灵活的提供商路由——按任务复杂度分配模型,精细化控制成本
  3. 本地模型支持——满足数据隐私需求的离线方案
  4. 机器人扩展——远程/异步协作场景

适合人群:想试用 Claude Code 但不想付费的开发者、需要本地推理的数据敏感团队、以及做多模型对比评测的研究者。

不适合人群:追求最优代码质量的用户(模型降级是硬伤)、对第三方数据安全敏感且缺乏本地硬件的用户。

项目仍处于活跃开发中,24 个 open issues、20 个 open PRs 表明社区参与度较高。MIT 协议也允许自由 fork 和定制。如果需要一个「Claude Code 免费体验版」,这是当前最好的选择。


常见问题

free-claude-code 是完全免费的吗?

项目本身是 MIT 协议的开源软件,完全免费。使用哪个后端决定了你的运行成本:NVIDIA NIM 有免费额度,OpenRouter 有免费模型,本地方案零成本。付费 API(如 DeepSeek)费用也远低于 Anthropic 官方。

会降低 Claude Code 的能力吗?

视具体模型而定。Claude Code 最擅长的是 Anthropic 自家模型(Sonnet/Opus)。替换为第三方模型后,代码生成质量和工具调用准确率通常会下降,尤其是复杂重构和多文件联调场景。建议从 NVIDIA NIM 的 GLM-4.7 入手测试,确认工具调用兼容性后再切换更复杂的任务。

需要 GPU 吗?

需要也不需。使用 NVIDIA NIM、OpenRouter、DeepSeek 等云端方案不需要本地 GPU。使用 LM Studio、llama.cpp、Ollama 等本地方案则需要本地 GPU(或 CPU 推理,但速度较慢)。

数据安全吗?

云端方案(NIM / OpenRouter / DeepSeek)的数据会经过第三方服务器。如果代码敏感,优先使用本地方案。项目本身不存储或记录请求数据。

能用于团队协作吗?

可以。项目内置 Discord 和 Telegram 机器人适配器,支持远程启动 Claude Code 会话、流式输出、任务停止等操作。

如何配置 NVIDIA NIM 免费 Key?

访问 NVIDIA NIM API 控制台,注册 NVIDIA 开发者账号即可免费获取 API Key。在 free-claude-code 项目 .env 文件中设置 NVIDIA_NIM_API_KEY 即可。无需绑定支付方式。

和 OpenClaw 相比哪个更好?

两者定位不同。free-claude-code 解决的是”如何不花钱用 Claude Code”的问题,而 OpenClaw 自有其 Agent 生态和 skill 系统的优势。实际使用中可以各取所需,甚至组合使用——用 free-claude-code 做 Claude Code 前端体验,用 OpenClaw 做自动化工作流编排。


参考链接