问题:Claude Code 太贵了
Claude Code 是目前最好的 AI 编程助手之一。它直接集成到终端中,理解代码库上下文,可以自主执行命令、编辑文件和调试问题。
但有一个问题:它需要 Anthropic API 密钥,而 Claude 3.5 Sonnet / Claude 3 Opus 的 API 调用每小时活跃编码可能花费 $3-15。对于每天使用 AI 助手的开发者来说,这笔费用累积得很快。
Free Claude Code 通过在 Claude Code CLI 和免费或低成本的 AI 提供商之间充当代理来解决这个问题。
什么是 Free Claude Code?
Free Claude Code 是一个由 Ali Shahryar 创建的开源 Python 代理服务器。它拦截 Claude Code 的 Anthropic Messages API 请求,并将其转发到提供免费层或本地执行的替代 AI 后端。
项目构建技术栈:
- Python 3.14 — 最新 Python,性能改进
- uv — Astral 出品的高速 Python 包管理器
- FastAPI + Uvicorn — 高性能异步 Web 服务器
- Pydantic — 严格类型验证
- Loguru — 结构化日志
- Ruff — 高速 Python 代码检查器和格式化工具
支持的 AI 提供商
Free Claude Code 支持 6 种不同的后端,让你根据成本、速度、隐私或模型偏好进行选择:
| 提供商 | 成本 | 最适合 | 设置复杂度 |
|---|---|---|---|
| NVIDIA NIM | 有免费层 | 生产环境、快速推理 | 需要 API 密钥 |
| OpenRouter | 按量付费 | 访问多种模型 | 需要 API 密钥 |
| DeepSeek | 非常便宜 | 注重预算的开发者 | 需要 API 密钥 |
| LM Studio | 免费(本地) | 隐私、离线使用 | 本地 GUI 应用 |
| llama.cpp | 免费(本地) | 最大控制、自定义模型 | 命令行 |
| Ollama | 免费(本地) | 最简单的本地设置 | 简单安装 |
NVIDIA NIM(推荐免费层)
NVIDIA 通过其 NIM(NVIDIA Inference Microservices)平台提供慷慨的免费层。你可以免费运行 glm-4-9b 或 llama-3.1-8b 等模型,速率限制适合个人开发。
设置:
- 在 build.nvidia.com 获取 API 密钥
- 配置
.env:NVIDIA_NIM_API_KEY="nvapi-your-key" MODEL="nvidia_nim/z-ai/glm4.7" ANTHROPIC_AUTH_TOKEN="freecc"
OpenRouter
OpenRouter 提供对数百种模型的统一访问,包括 Claude、GPT-4、Gemini 和开源替代方案。按使用量付费。
设置:
OPENROUTER_API_KEY="sk-or-your-key"
MODEL="open_router/anthropic/claude-3.5-sonnet"
DeepSeek
DeepSeek 提供极具竞争力的价格(通常比 Anthropic 便宜 10 倍),编程性能强劲。
设置:
DEEPSEEK_API_KEY="sk-your-key"
MODEL="deepseek/deepseek-chat"
本地选项(LM Studio、llama.cpp、Ollama)
为了完全的隐私和零持续成本,在本地运行模型:
Ollama(最简单):
# 安装 Ollama
ollama pull llama3.1
ollama serve
OLLAMA_BASE_URL="http://localhost:11434"
MODEL="ollama/llama3.1"
LM Studio: 下载 LM Studio ,加载模型,它会自动运行本地 API 服务器。
LMSTUDIO_BASE_URL="http://localhost:1234/v1"
MODEL="lmstudio/your-loaded-model"
核心功能
按模型路由
为不同的 Claude 模型层配置不同的提供商:
# Opus 请求 → OpenRouter(最佳质量)
MODEL_OPUS="open_router/anthropic/claude-3-opus"
# Sonnet 请求 → NVIDIA NIM(免费层)
MODEL_SONNET="nvidia_nim/z-ai/glm4.7"
# Haiku 请求 → Ollama(本地、即时)
MODEL_HAIKU="ollama/llama3.1"
Claude Code 的 /model 选择器通过代理的 /v1/models 端点原生工作。
流式传输支持
实时 token 流式传输与官方 Anthropic API 完全一致。你可以看到代码逐字逐句地被输入。
工具调用
Claude Code 的函数调用(文件操作、命令执行)通过代理工作。代理将 Anthropic 的工具格式转换为每个提供商的原生格式。
推理/思考块
对于支持思维链推理的模型(如 DeepSeek-R1),代理正确提取和格式化思考块。
语音备忘录(可选)
使用本地 Whisper 或 NVIDIA NIM 语音识别将语音备忘录转录为代码指令。
聊天机器人(可选)
部署 Discord 或 Telegram 机器人,使用相同的代理后端进行远程编码会话。
快速入门指南
第一步:安装依赖
# 安装 uv(高速 Python 包管理器)
curl -LsSf https://astral.sh/uv/install.sh | sh
uv self update
# 安装 Python 3.14
uv python install 3.14
第二步:克隆和配置
git clone https://github.com/Alishahryar1/free-claude-code.git
cd free-claude-code
cp .env.example .env
用你选择的提供商编辑 .env(参见上面的示例)。
第三步:启动代理
uv run uvicorn server:app --host 0.0.0.0 --port 8082
或作为工具安装:
uv tool install git+https://github.com/Alishahryar1/free-claude-code.git
fcc-init # 在 ~/.config/free-claude-code/ 创建配置
free-claude-code
第四步:运行 Claude Code
# Bash/Linux/macOS
ANTHROPIC_AUTH_TOKEN="freecc" ANTHROPIC_BASE_URL="http://localhost:8082" claude
# PowerShell
$env:ANTHROPIC_AUTH_TOKEN="freecc"; $env:ANTHROPIC_BASE_URL="http://localhost:8082"; claude
重要: 将 ANTHROPIC_BASE_URL 指向代理根目录(http://localhost:8082),而不是 /v1。代理会处理路径路由。
性能对比
我在一个中等规模的 Python 项目上测试了不同提供商的 Free Claude Code:
| 提供商 | 模型 | 延迟 | 质量 | 每小时成本 |
|---|---|---|---|---|
| Anthropic(官方) | Claude 3.5 Sonnet | 快 | 优秀 | ~$5-15 |
| NVIDIA NIM | glm-4-9b | 中等 | 良好 | 免费* |
| OpenRouter | Claude 3.5 Sonnet | 快 | 优秀 | ~$3-8 |
| DeepSeek | DeepSeek-V3 | 快 | 很好 | ~$0.50-2 |
| Ollama(本地) | Llama 3.1 8B | 即时 | 良好 | $0 |
| LM Studio(本地) | Qwen 2.5 Coder | 即时 | 良好 | $0 |
*免费层有速率限制。适合个人使用。
架构
Claude Code CLI → Anthropic Messages API → Free Claude Code 代理 → 提供商后端
↓
转换层
(OpenAI ↔ Anthropic 格式)
代理保持 Claude Code 的客户端协议,同时转换到每个提供商的 API 格式:
- OpenAI 兼容(NVIDIA NIM)— 转换为聊天补全
- Anthropic 兼容(OpenRouter、DeepSeek、本地)— 通过适配传递
安全考虑
- 本地令牌存储 — API 密钥保存在
~/.config/free-claude-code/.env,权限 600 - 认证令牌 — 将
ANTHROPIC_AUTH_TOKEN设置为任意密钥;Claude Code 会将其传回进行验证 - 无数据日志 — 代理不会记录你的代码或对话(查看提供商的政策了解他们那边的情况)
- 开源 — 所有代码可审计;没有黑盒中间件
局限性
- 模型能力差距 — 免费/本地模型可能在复杂多步推理方面比 Claude 3.5 Sonnet 吃力
- 上下文窗口 — 本地模型通常有更小的上下文窗口(4K-8K vs Claude 的 200K)
- 工具可靠性 — 某些提供商处理工具调用的方式不同;用你的工作流程充分测试
- 速率限制 — 免费层有限制;重度用户可能需要升级或切换提供商
什么时候用什么
| 场景 | 推荐提供商 |
|---|---|
| 日常编码,注重预算 | DeepSeek 或 NVIDIA NIM |
| 最大代码质量 | OpenRouter → Claude 3.5 Sonnet |
| 完全隐私 | Ollama 或 LM Studio(本地) |
| 离线/隔离环境 | 下载权重的 llama.cpp |
| 实验/学习 | NVIDIA NIM 免费层 |
结论
Free Claude Code 对于想要 Claude Code 出色用户体验但不想承担持续 API 成本的开发者来说是一个改变游戏规则的工具。通过免费层和本地模型进行路由,你可以将 AI 编程助手成本降低到零,同时保留大部分功能。
该项目维护活跃,测试良好(Pytest + CI),支持的提供商比任何类似工具都多。如果你每月在 Claude API 调用上花费 $50-200,这个代理可以立即回本。
GitHub: Alishahryar1/free-claude-code 许可证: MIT Python: 3.14 状态: 积极开发,社区驱动
你试过 Free Claude Code 吗?哪个提供商最适合你的工作流程?在评论中分享你的经验。