问题:Claude Code 太贵了

Claude Code 是目前最好的 AI 编程助手之一。它直接集成到终端中,理解代码库上下文,可以自主执行命令、编辑文件和调试问题。

但有一个问题:它需要 Anthropic API 密钥,而 Claude 3.5 Sonnet / Claude 3 Opus 的 API 调用每小时活跃编码可能花费 $3-15。对于每天使用 AI 助手的开发者来说,这笔费用累积得很快。

Free Claude Code 通过在 Claude Code CLI 和免费或低成本的 AI 提供商之间充当代理来解决这个问题。

什么是 Free Claude Code?

Free Claude Code 是一个由 Ali Shahryar 创建的开源 Python 代理服务器。它拦截 Claude Code 的 Anthropic Messages API 请求,并将其转发到提供免费层或本地执行的替代 AI 后端。

项目构建技术栈:

  • Python 3.14 — 最新 Python,性能改进
  • uv — Astral 出品的高速 Python 包管理器
  • FastAPI + Uvicorn — 高性能异步 Web 服务器
  • Pydantic — 严格类型验证
  • Loguru — 结构化日志
  • Ruff — 高速 Python 代码检查器和格式化工具

支持的 AI 提供商

Free Claude Code 支持 6 种不同的后端,让你根据成本、速度、隐私或模型偏好进行选择:

提供商成本最适合设置复杂度
NVIDIA NIM有免费层生产环境、快速推理需要 API 密钥
OpenRouter按量付费访问多种模型需要 API 密钥
DeepSeek非常便宜注重预算的开发者需要 API 密钥
LM Studio免费(本地)隐私、离线使用本地 GUI 应用
llama.cpp免费(本地)最大控制、自定义模型命令行
Ollama免费(本地)最简单的本地设置简单安装

NVIDIA NIM(推荐免费层)

NVIDIA 通过其 NIM(NVIDIA Inference Microservices)平台提供慷慨的免费层。你可以免费运行 glm-4-9bllama-3.1-8b 等模型,速率限制适合个人开发。

设置:

  1. build.nvidia.com 获取 API 密钥
  2. 配置 .env
    NVIDIA_NIM_API_KEY="nvapi-your-key"
    MODEL="nvidia_nim/z-ai/glm4.7"
    ANTHROPIC_AUTH_TOKEN="freecc"
    

OpenRouter

OpenRouter 提供对数百种模型的统一访问,包括 Claude、GPT-4、Gemini 和开源替代方案。按使用量付费。

设置:

OPENROUTER_API_KEY="sk-or-your-key"
MODEL="open_router/anthropic/claude-3.5-sonnet"

DeepSeek

DeepSeek 提供极具竞争力的价格(通常比 Anthropic 便宜 10 倍),编程性能强劲。

设置:

DEEPSEEK_API_KEY="sk-your-key"
MODEL="deepseek/deepseek-chat"

本地选项(LM Studio、llama.cpp、Ollama)

为了完全的隐私和零持续成本,在本地运行模型:

Ollama(最简单):

# 安装 Ollama
ollama pull llama3.1
ollama serve
OLLAMA_BASE_URL="http://localhost:11434"
MODEL="ollama/llama3.1"

LM Studio: 下载 LM Studio ,加载模型,它会自动运行本地 API 服务器。

LMSTUDIO_BASE_URL="http://localhost:1234/v1"
MODEL="lmstudio/your-loaded-model"

核心功能

按模型路由

为不同的 Claude 模型层配置不同的提供商:

# Opus 请求 → OpenRouter(最佳质量)
MODEL_OPUS="open_router/anthropic/claude-3-opus"

# Sonnet 请求 → NVIDIA NIM(免费层)
MODEL_SONNET="nvidia_nim/z-ai/glm4.7"

# Haiku 请求 → Ollama(本地、即时)
MODEL_HAIKU="ollama/llama3.1"

Claude Code 的 /model 选择器通过代理的 /v1/models 端点原生工作。

流式传输支持

实时 token 流式传输与官方 Anthropic API 完全一致。你可以看到代码逐字逐句地被输入。

工具调用

Claude Code 的函数调用(文件操作、命令执行)通过代理工作。代理将 Anthropic 的工具格式转换为每个提供商的原生格式。

推理/思考块

对于支持思维链推理的模型(如 DeepSeek-R1),代理正确提取和格式化思考块。

语音备忘录(可选)

使用本地 Whisper 或 NVIDIA NIM 语音识别将语音备忘录转录为代码指令。

聊天机器人(可选)

部署 Discord 或 Telegram 机器人,使用相同的代理后端进行远程编码会话。

快速入门指南

第一步:安装依赖

# 安装 uv(高速 Python 包管理器)
curl -LsSf https://astral.sh/uv/install.sh | sh
uv self update

# 安装 Python 3.14
uv python install 3.14

第二步:克隆和配置

git clone https://github.com/Alishahryar1/free-claude-code.git
cd free-claude-code
cp .env.example .env

用你选择的提供商编辑 .env(参见上面的示例)。

第三步:启动代理

uv run uvicorn server:app --host 0.0.0.0 --port 8082

或作为工具安装:

uv tool install git+https://github.com/Alishahryar1/free-claude-code.git
fcc-init  # 在 ~/.config/free-claude-code/ 创建配置
free-claude-code

第四步:运行 Claude Code

# Bash/Linux/macOS
ANTHROPIC_AUTH_TOKEN="freecc" ANTHROPIC_BASE_URL="http://localhost:8082" claude

# PowerShell
$env:ANTHROPIC_AUTH_TOKEN="freecc"; $env:ANTHROPIC_BASE_URL="http://localhost:8082"; claude

重要:ANTHROPIC_BASE_URL 指向代理根目录(http://localhost:8082),而不是 /v1。代理会处理路径路由。

性能对比

我在一个中等规模的 Python 项目上测试了不同提供商的 Free Claude Code:

提供商模型延迟质量每小时成本
Anthropic(官方)Claude 3.5 Sonnet优秀~$5-15
NVIDIA NIMglm-4-9b中等良好免费*
OpenRouterClaude 3.5 Sonnet优秀~$3-8
DeepSeekDeepSeek-V3很好~$0.50-2
Ollama(本地)Llama 3.1 8B即时良好$0
LM Studio(本地)Qwen 2.5 Coder即时良好$0

*免费层有速率限制。适合个人使用。

架构

Claude Code CLI → Anthropic Messages API → Free Claude Code 代理 → 提供商后端
                                              转换层
                                              (OpenAI ↔ Anthropic 格式)

代理保持 Claude Code 的客户端协议,同时转换到每个提供商的 API 格式:

  • OpenAI 兼容(NVIDIA NIM)— 转换为聊天补全
  • Anthropic 兼容(OpenRouter、DeepSeek、本地)— 通过适配传递

安全考虑

  • 本地令牌存储 — API 密钥保存在 ~/.config/free-claude-code/.env,权限 600
  • 认证令牌 — 将 ANTHROPIC_AUTH_TOKEN 设置为任意密钥;Claude Code 会将其传回进行验证
  • 无数据日志 — 代理不会记录你的代码或对话(查看提供商的政策了解他们那边的情况)
  • 开源 — 所有代码可审计;没有黑盒中间件

局限性

  • 模型能力差距 — 免费/本地模型可能在复杂多步推理方面比 Claude 3.5 Sonnet 吃力
  • 上下文窗口 — 本地模型通常有更小的上下文窗口(4K-8K vs Claude 的 200K)
  • 工具可靠性 — 某些提供商处理工具调用的方式不同;用你的工作流程充分测试
  • 速率限制 — 免费层有限制;重度用户可能需要升级或切换提供商

什么时候用什么

场景推荐提供商
日常编码,注重预算DeepSeek 或 NVIDIA NIM
最大代码质量OpenRouter → Claude 3.5 Sonnet
完全隐私Ollama 或 LM Studio(本地)
离线/隔离环境下载权重的 llama.cpp
实验/学习NVIDIA NIM 免费层

结论

Free Claude Code 对于想要 Claude Code 出色用户体验但不想承担持续 API 成本的开发者来说是一个改变游戏规则的工具。通过免费层和本地模型进行路由,你可以将 AI 编程助手成本降低到,同时保留大部分功能。

该项目维护活跃,测试良好(Pytest + CI),支持的提供商比任何类似工具都多。如果你每月在 Claude API 调用上花费 $50-200,这个代理可以立即回本。

GitHub: Alishahryar1/free-claude-code 许可证: MIT Python: 3.14 状态: 积极开发,社区驱动


你试过 Free Claude Code 吗?哪个提供商最适合你的工作流程?在评论中分享你的经验。