什么是免费 LLM API 资源?
免费 LLM API 资源是一个精选的免费大型语言模型推理 API集合 —— 允许开发者在不支付 API 费用的情况下构建 AI 驱动的应用程序。由社区维护,它跟踪哪些提供商提供免费套餐、有哪些模型可用以及如何访问它们。
GitHub: https://github.com/cheahjs/free-llm-api-resources Stars: 20,310+ 语言: Python 协议: CC0-1.0 (公共领域)
问题:AI API 成本
当前定价 (2026)
| 提供商 | 模型 | 输入成本 | 输出成本 |
|---|---|---|---|
| OpenAI | GPT-4o | $5/百万 tokens | $15/百万 tokens |
| Anthropic | Claude 3.5 | $3/百万 tokens | $15/百万 tokens |
| Gemini Pro | $3.50/百万 tokens | $10.50/百万 tokens | |
| Mistral | Large | $4/百万 tokens | $12/百万 tokens |
问题: 构建 AI 应用每月花费 $50-500 的 API 费用。
解决方案:免费套餐
| 提供商 | 免费套餐 | 速率限制 | 模型 |
|---|---|---|---|
| Groq | 100% 免费 | 20 请求/分钟 | Llama 3, Mixtral |
| Together AI | $5 额度 | 60 请求/分钟 | 各种开源 |
| Fireworks AI | 试用 | 变化 | 多个 |
| Ollama | 本地 | 无限 | 自托管 |
| LM Studio | 本地 | 无限 | 自托管 |
精选免费提供商
1. Groq — 最快推理
网站: https://groq.com 免费套餐: 完全免费(速率限制) 速度: 800+ tokens/秒 模型:
- Llama 3 70B
- Llama 3 8B
- Mixtral 8x7B
- Gemma 7B
import requests
# Groq API (免费套餐)
response = requests.post(
"https://api.groq.com/openai/v1/chat/completions",
headers={"Authorization": "Bearer YOUR_FREE_API_KEY"},
json={
"model": "llama3-70b-8192",
"messages": [{"role": "user", "content": "你好!"}]
}
)
print(response.json()["choices"][0]["message"]["content"])
2. Together AI — $5 免费额度
网站: https://www.together.ai 免费套餐: 新账户 $5 额度 模型: 100+ 开源模型 特性: 微调、嵌入
import openai
client = openai.OpenAI(
api_key="YOUR_TOGETHER_API_KEY",
base_url="https://api.together.xyz/v1"
)
response = client.chat.completions.create(
model="meta-llama/Llama-3-70b-chat-hf",
messages=[{"role": "user", "content": "解释量子计算"}]
)
print(response.choices[0].message.content)
3. Ollama — 本地运行
网站: https://ollama.com 成本: 完全免费(在你的硬件上运行) 隐私: 100% 私密 模型: 从 Ollama 库拉取
# 安装 Ollama
curl -fsSL https://ollama.com/install.sh | sh
# 拉取模型
ollama pull llama3
# 运行 API 服务器
ollama serve
# 使用 API
curl http://localhost:11434/api/generate -d '{
"model": "llama3",
"prompt": "为什么天空是蓝色的?"
}'
4. LM Studio — GUI + API
网站: https://lmstudio.ai 成本: 免费(本地推理) 特性: GUI 模型浏览器、API 服务器 最适合: 测试模型、开发
# LM Studio 本地 API
import openai
client = openai.OpenAI(
base_url="http://localhost:1234/v1",
api_key="not-needed"
)
response = client.chat.completions.create(
model="local-model",
messages=[{"role": "user", "content": "你好!"}]
)
5. Fireworks AI — 快速开源模型
网站: https://fireworks.ai 免费套餐: 试用额度 速度: 优化推理 模型: Llama、Mixtral、CodeLlama
对比表
| 提供商 | 成本 | 速度 | 隐私 | 易用性 | 最适合 |
|---|---|---|---|---|---|
| Groq | 免费 | ⚡⚡⚡ | ❌ | ⭐⭐⭐ | 生产应用 |
| Together | $5 额度 | ⚡⚡ | ❌ | ⭐⭐⭐ | 实验 |
| Ollama | 免费 | ⚡ | ✅ | ⭐⭐ | 注重隐私 |
| LM Studio | 免费 | ⚡ | ✅ | ⭐⭐⭐ | 开发 |
| Fireworks | 试用 | ⚡⚡ | ❌ | ⭐⭐ | 快速推理 |
使用场景
1. 开发与测试
- 原型 AI 功能
- 测试提示词
- 构建 MVP
- 学习 LLM 集成
2. 个人项目
- 个人使用的聊天机器人
- 内容生成工具
- 代码助手
- 研究助手
3. 教育
- 学习 AI 开发
- 学生项目
- 开源贡献
- 研究实验
4. 生产(谨慎使用)
- 低流量应用
- 备用提供商
- 成本敏感项目
- 社区工具
如何选择
决策树
需要 API 访问?
├── 是 → 需要高速度?
│ ├── 是 → Groq(最快)
│ └── 否 → Together AI(最多模型)
├── 否 → 需要隐私?
│ ├── 是 → Ollama/LM Studio(本地)
│ └── 否 → 考虑付费选项
速率限制很重要
| 提供商 | 请求/分钟 | Tokens/分钟 | 说明 |
|---|---|---|---|
| Groq | 20 | 6,000 | 对开发很慷慨 |
| Together | 60 | 12,000 | 适合测试 |
| Ollama | 无限 | 硬件限制 | 你的硬件 = 限制 |
社区与更新
如何贡献
该仓库由社区维护:
- Star 仓库以支持
- 提交 PR 添加新提供商
- 报告 损坏的链接
- 分享 你的经验
保持更新
- Watch GitHub 仓库
- 每月检查 新提供商
- 加入 讨论获取技巧
- 关注 GitHub 上的 @cheahjs
相关文章
- Free Claude Code: 开源 AI 编码 — 更多免费 AI 工具
- TabPFN: 表格数据基础模型 — 数据科学 AI
- OpenClaw 42 个用例 — AI 代理应用
免责声明:免费套餐有速率限制,可能会更改。请始终查看提供商的当前条款。这是一个社区资源,不隶属于任何 API 提供商。
有问题或想法?欢迎在下方留下你的评论。使用 GitHub 账号登录即可参与讨论。