如果你正在寻找免费使用 Claude Code 的方法,那么 free-claude-code 这个开源项目绝对值得关注。它能让 Claude Code 完美对接 NVIDIA NIM、OpenRouter、DeepSeek 等多种免费或低成本的大模型服务,同时保留 Claude Code 原生的工程能力。

作为 Claude Code 用户,我们都知道它强大的工程能力:上下文管理、记忆系统、Skill 封装、工具调用、Subagent 控制等。但官方 API 价格不菲,国内使用还有各种限制。
free-claude-code 完美解决了这个问题:
项目地址:https://github.com/Alishahryar1/free-claude-code
| 提供商 | 特点 | 推荐模型 |
|---|---|---|
| NVIDIA NIM | 免费 40 次/分钟,注册即用 | GLM-5.1、MiniMax M2.7、Kimi K2 |
| OpenRouter | 几百个模型,含免费款 | deepseek-r1、gpt-oss-120b |
| DeepSeek | 价格低,稳定 | deepseek-reasoner、deepseek-chat |
| LM Studio | 纯本地,数据不出网 | 本地 GGUF 模型 |
| llama.cpp | 完全本地运行 | 本地模型 |
如果没有,先去 build.nvidia.com 申请一个 nvapi- 开头的 Key。
git clone https://github.com/Alishahryar1/free-claude-code.git
cd free-claude-code
这个项目使用 Python,需要先安装 uv:
pip install uv
uv sync
NVIDIA_NIM_API_KEY="nvapi-你的Key"
# 模型映射:所有 Claude 模型都映射到这里
MODEL_OPUS="nvidia_nim/z-ai/glm-5.1"
MODEL_SONNET="nvidia_nim/z-ai/glm-5.1"
MODEL_HAIKU="nvidia_nim/z-ai/glm-5.1"
MODEL="nvidia_nim/z-ai/glm-5.1"
ENABLE_THINKING=true
PROVIDER_RATE_LIMIT=40
uv run uvicorn server:app --host 0.0.0.0 --port 8082
编辑 C:\Users\Administrator\.claude\settings.json:
{
"env": {
"ANTHROPIC_BASE_URL": "http://localhost:8082",
"ANTHROPIC_AUTH_TOKEN": "ccnim"
}
}
直接启动 Claude Code:
claude
然后说 "你好" 测试。
⚠️ 重要:不要在 Claude Code 中使用
/model minimaxai/minimax-m2.7!正确方式是直接说话,代理会自动映射到你在.env中配置的模型。
根据 nvidia_nim_models.json,以下模型都可以免费使用:
| 模型 | 特点 |
|---|---|
z-ai/glm-5.1 |
中文理解强,长上下文 |
z-ai/glm4.7 |
稳定可靠 |
minimaxai/minimax-m2.7 |
Coding 速度快 |
minimaxai/minimax-m2.5 |
更轻量 |
moonshotai/kimi-k2-thinking |
思考能力强 |
stepfun-ai/step-3.5-flash |
免费额度多 |
| 对比项 | CC Switch | free-claude-code |
|---|---|---|
| 实现方式 | 工具辅助配置 | 本地代理服务 |
| 模型映射 | 手动填模型名 |
.env 统一配置 |
| 请求转换 | 简单替换 | 完整 Anthropic→OpenAI 转换 |
| 工具调用 | 不够稳定 | 启发式解析,更稳定 |
| 调试难度 | 较难排查 | 终端日志清晰 |
| 配置方式 | GUI 界面 | 配置文件 |
为什么 free-claude-code 成功率更高?
.env 统一配置,格式固定settings.json 比工具更干净,CC Switch 可能有残留配置影响不需要! 配置好 settings.json 后,在任意终端运行 claude 都会自动走代理。
如果你不想每次手动启动代理,可以创建一个 启动代理.bat 双击运行:
@echo off
cd /d D:\project2026\free-claude-code
start "NVIDIA NIM Proxy" cmd /k ".venv\Scripts\uvicorn.exe server:app --host 0.0.0.0 --port 8082"
检查三点:
settings.json 是否正确设置了 ANTHROPIC_BASE_URL 为 http://localhost:8082
.env 中的模型名称是否正确(带命名空间,如 z-ai/glm-5.1)NVIDIA NIM 免费层 40 次/分钟,对于日常开发完全够用。复杂任务建议适当放慢速度。
可以!在 .env 中为 MODEL_OPUS、MODEL_SONNET、MODEL_HAIKU 分别设置不同的模型,实现混合使用。
D:\project2026\free-claude-code\.env
MODEL 的值:
env
MODEL="nvidia_nim/z-ai/glm-5.1" # GLM-5.1
MODEL="nvidia_nim/minimaxai/minimax-m2.7" # MiniMax M2.7
MODEL="nvidia_nim/moonshotai/kimi-k2-thinking" # Kimi K2
启动代理.bat)free-claude-code 可能是目前国内用户免费使用 Claude Code 最丝滑的方案。它完美保留了 Claude Code 强大的工程能力,同时让我们能白嫖 GLM-5.1、MiniMax M2.7 等优质模型。
对于中低复杂度的项目来说,这套方案已经完全够用。省下的订阅费买点啥不香呢?