Caveman:让 Claude Code Token 消耗减少 65%,省钱又提速

🪨 why use many token when few token do trick

如果你每天用 Claude Code、Cursor 或 Gemini CLI 写代码,你可能没意识到——AI 助手那些冗长、礼貌、充满过渡词的回复,正在悄悄吃掉你的 Token 预算。一个名为 Caveman 的开源技能(Skill)正在 GitHub 上爆火:57,000+ Stars,它通过让 AI “像原始人一样说话”,平均减少 65% 的输出 Token,响应速度提升约 3 倍,同时保持 100% 的技术准确性

这不是玩笑。这是经过真实 API 调用基准测试验证的数据。


一、Caveman 是什么?

Caveman 是由 Julius Brussee 开发的一款 Claude Code 技能,核心理念极其简单:

“为什么用很多 Token,当少量 Token 就能搞定?”

它通过智能压缩 AI 的输出内容——去掉填充词、过渡句、冗余修饰,保留全部技术信息——让 AI 的回复变得极简、直接、高效。你可以把它理解为给 AI 装了一个"语言压缩器"。

项目信息:


二、为什么你需要 Caveman?

1. Token 消耗平均减少 65%(实测数据)

Caveman 团队使用 Claude API 进行了真实基准测试,以下是部分结果:

任务正常模式 (Tokens)Caveman 模式 (Tokens)节省比例
解释 React 重渲染 Bug1,18015987%
修复 Auth 中间件 Token 过期70412183%
配置 PostgreSQL 连接池2,34738084%
解释 Git rebase vs merge70229258%
Docker 多阶段构建1,04229072%
实现 React Error Boundary3,45445687%
平均值1,21429465%

节省范围从 22% 到 87% 不等,取决于任务类型。代码重构类任务节省较少(因为输出本身就很精简),而解释性、架构类任务节省极为可观。

2. 响应速度提升约 3 倍

Token 生成量减少意味着 AI 完成回复的时间大幅缩短。在快节奏的编程工作流中,等待 AI 写完一段长篇大论和立刻得到精准答案,体验天差地别。

3. 技术准确性 100% 不变

Caveman 只压缩"废话",不压缩"干货"。所有技术信息、代码逻辑、关键细节完整保留。2026 年 3 月的一篇论文 “Brevity Constraints Reverse Performance Hierarchies in Language Models” 甚至发现:约束大模型生成简短回复,在某些基准测试中提升了 26 个百分点的准确率。verbose(冗长)不等于更好。

4. 更易阅读,更少认知负担

没有大段大段的铺垫和总结,AI 直接给你答案。代码审查、技术解释、调试建议都变得像子弹列表一样清晰。

5. 省钱

如果你使用按 Token 计费的 AI 服务(如 Claude API、Cursor Pro 等),输出 Token 减少 65% 直接意味着账单减少。对于重度用户,这每月可能省下数十甚至数百美元。


三、Caveman 是如何工作的?

Caveman 的核心机制是输出压缩(Output Compression)。它不影响 AI 的"思考过程"(thinking/reasoning tokens),只压缩最终说出来的话。

Caveman 不会让 AI 变笨,只会让 AI 的"嘴巴"变小。

它提供三种压缩强度:

等级触发指令效果
Lite/caveman lite去掉填充词,保留语法。专业但无废话
Full/caveman full默认模式。去掉冠词、碎片化表达,原始人风格
Ultra/caveman ultra最大压缩。电报式表达,能缩写的全缩写

等级一旦设置,会在整个会话中保持,直到你更改或会话结束。

特色模式:文言文 (Wenyan) 压缩

Caveman 甚至提供了一个极具创意的文言文模式——用人类历史上最精简的书面语言来传递技术信息:

等级触发指令效果
Wenyan-Lite/caveman wenyan-lite半文言。语法完整,填充词消失
Wenyan-Full/caveman wenyan全文言。极致古典简练
Wenyan-Ultra/caveman wenyan-ultra极端模式。古代学者省钱版

四、支持哪些 AI 助手?

Caveman 的安装脚本能自动检测 30+ 款 AI 编程助手并为其安装对应插件:

  • Claude Code
  • Gemini CLI
  • Codex (OpenAI)
  • Cursor
  • Windsurf
  • Cline
  • GitHub Copilot
  • Continue
  • Kilo
  • Roo
  • Augment
  • Aider Desk
  • Amp
  • Bob
  • Crush
  • Devin
  • Droid
  • ForgeCode
  • Goose
  • iFlow
  • JetBrains Junie
  • Kiro CLI
  • Mistral Vibe
  • OpenHands
  • opencode
  • Qwen Code
  • Qoder
  • Rovo Dev
  • Tabnine
  • Trae
  • Warp
  • Replit Agent
  • Antigravity
  • …以及更多

你不需要手动为每个工具配置,一行命令搞定全部。


五、安装与使用

一键安装

macOS / Linux / WSL / Git Bash:

1curl -fsSL https://raw.githubusercontent.com/JuliusBrussee/caveman/main/install.sh | bash

Windows (PowerShell):

1irm https://raw.githubusercontent.com/JuliusBrussee/caveman/main/install.ps1 | iex

安装脚本默认会:

  1. 为检测到的每个 AI 助手安装对应插件
  2. 配置 Claude Code 的 hooks + 状态栏 + 统计徽章
  3. 注册 caveman-shrink MCP 代理

安装选项

参数效果
--all完整安装:插件 + hooks + 状态栏 + MCP shrink + 当前目录的 per-repo 规则文件
--minimal仅安装插件/扩展,跳过 hooks 和 MCP shrink
--with-init在当前仓库中放置常驻规则文件(Cursor / Windsurf / Cline / Copilot / AGENTS.md)
--list打印完整的 AI 助手检测列表

使用方法

安装后,在任意支持的 AI 助手中输入以下指令即可激活:

  • /caveman 或 Codex 的 $caveman
  • “talk like caveman”
  • “caveman mode”
  • “less tokens please”

关闭 Caveman 模式:

  • “stop caveman”
  • “normal mode”

六、Caveman 生态系统

Caveman 其实只是一个更大生态的入口。Julius Brussee 还开发了另外两个配套工具:

项目功能一句话描述
caveman输出压缩压缩 AI “说"的话
cavemem跨助手持久记忆压缩 AI “记住"的话
cavekit规范驱动自主构建自然语言 → 套件 → 并行构建 → 验证

三者可以组合使用:cavekit 编排构建流程,caveman 压缩输出,cavemem 压缩记忆。每个工具都可以独立使用。


七、进阶:caveman-shrink MCP 中间件

对于使用 MCP(Model Context Protocol)服务器的用户,Caveman 还提供了一个强大的中间件 caveman-shrink

它是一个 stdio 代理,可以包装任何 MCP 服务器,拦截 tools/listprompts/listresources/list 响应,并压缩其中的 description 字段。代码、URL、路径、标识符保持字节级完全一致。

1{
2  "mcpServers": {
3    "fs-shrunk": {
4      "command": "npx",
5      "args": ["caveman-shrink", "npx", "@modelcontextprotocol/server-filesystem", "/path/to/dir"]
6    }
7  }
8}

已发布在 npm:caveman-shrink 。默认由 install.sh 自动注册(使用 --minimal 可跳过)。


八、真实场景对比

场景 1:解释 React 重渲染 Bug

正常模式:

“好的,让我来详细解释一下 React 重渲染的问题。首先,我们需要理解 React 的渲染机制。当一个组件的状态(state)或属性(props)发生变化时,React 会重新渲染该组件及其子组件。这个过程被称为重渲染(re-render)。在某些情况下,不必要的重渲染会导致性能问题…”

Caveman 模式:

“React re-render happen when state/props change. Unnecessary re-render = performance problem. Fix: use React.memo, useMemo, useCallback. Check dependency array in useEffect.”

结果: 1,180 Tokens → 159 Tokens,节省 87%

场景 2:Docker 多阶段构建

正常模式:

“Docker 多阶段构建(multi-stage builds)是一种优化 Docker 镜像大小的技术。它允许你在一个 Dockerfile 中使用多个 FROM 指令,每个 FROM 指令都可以使用不同的基础镜像…”

Caveman 模式:

“Multi-stage build = smaller image. Multiple FROM in one Dockerfile. Copy only needed artifacts from builder stage to final stage.”

结果: 1,042 Tokens → 290 Tokens,节省 72%


九、常见问题

Q1: Caveman 会影响 AI 的思考质量吗?

不会。 Caveman 只压缩输出 Token(AI 说出来的话),不影响思考/推理 Token(AI 内部思考过程)。AI 的"大脑"保持不变,只是"嘴巴"变小了。

Q2: 所有任务都能省 65% 吗?

不一定。 65% 是平均值。代码重构类任务(本身输出就很精简)可能只省 22%,而解释性、架构类任务可能省 87%。

Q3: Caveman 支持中文吗?

支持。 除了英文的 Caveman 模式,还有专门的文言文模式,用古典中文实现极致压缩。

Q4: 安装安全吗?

安全。 安装脚本只读取已安装的 AI 助手配置,不会修改系统文件。可以安全地重复运行。开源 MIT 协议,代码完全透明。

Q5: 免费吗?

完全免费。 Caveman 是开源项目,使用 MIT 许可证。


十、总结

Caveman 是 2026 年 AI 编程助手领域最实用、最有趣的效率工具之一。它不改变你的工作流,不降低输出质量,只是让 AI 学会"说人话”——或者说,“说原始人的话”。

核心价值:

  • ✅ Token 消耗平均减少 65%
  • ✅ 响应速度提升约 3 倍
  • ✅ 技术准确性 100% 不变
  • ✅ 支持 30+ 款 AI 编程助手
  • ✅ 一键安装,零配置
  • ✅ 完全免费,开源透明

如果你每天花大量时间与 AI 助手协作编程,Caveman 可能是你今年最值得安装的 5 分钟配置。


相关链接


“Less token, more speed, same brain.”

这就是 Caveman 的哲学。