caveman:让AI学会穴居人说话,25天5万星,输出token直降75%(附实测数据)

维护咨询 大模型部署 问题解决 技能定制 大模型训练

站长交流微信: aixbwz

caveman:让AI学会”穴居人说话”,25天斩获5万星的开源工具,输出token直降75%

2026年4月29日 GitHub Trending

一个叫”caveman”的开源项目正在GitHub疯狂增长:25天拿下49546颗星,成为本季度增长最快的AI工具之一。它的核心功能只有一个:让AI学会用”穴居人的方式”说话,把冗长的AI回复压缩75%,同时完整保留技术内容。

项目地址:https://github.com/JuliusBrussee/caveman

━━━━

一、它解决了什么问题

用ChatGPT、Claude写代码时,你一定遇到过这种情况:问了一个简单技术问题,AI回复洋洋洒洒几百字,”当然,我很乐意帮你分析这个问题”、”这是一个非常有趣的话题”之类的废话占了一半。更要命的是,这些回复是按token计费的——废话越多,钱包越瘦。

caveman的开发者JuliusBrussee发现了这个痛点:让AI用极简的”穴居人语言”回复,技术干货一个不少,废话全部砍掉。结果令人震惊:平均节省65%输出token,最多可达87%。

━━━━

二、实测数据:真的省token吗?

这是官方提供的真实API调用数据。要复现这个测试,先克隆仓库:

git clone https://github.com/JuliusBrussee/caveman.git
cd caveman
uv run python evals/llm_run.py

结果(offline查看):

uv run --with tiktoken python evals/measure.py

实测数据如下:

任务名称 普通模式(token) caveman模式(token) 节省比例
解释React重复渲染bug 1180 159 87%
修复auth中间件token过期判断 704 121 83%
搭建PostgreSQL连接池 2347 380 84%
解释git rebase vs merge 702 292 58%
将回调重构为async/await 387 301 22%
微服务vs单体架构对比 446 310 30%
安全审查PR代码 678 398 41%
Docker多阶段构建 1042 290 72%
调试PostgreSQL竞态条件 1200 232 81%
实现React错误边界 3454 456 87%
平均 1214 294 65%

Range: 22%-87% savings across prompts.

━━━━

三、实际效果对比:同一个问题,两种回答

问:为什么React组件会重复渲染?

普通Claude回复(69 tokens):

The reason your React component is re-rendering is likely because you are creating a new object reference on each render cycle. When you pass an inline object as a prop, React shallow comparison sees it as a different object every time, which triggers a re-render. I would recommend using useMemo to memoize the object.

caveman Claude回复(19 tokens):

New object ref each render. Inline object prop = new ref = re-render. Wrap in useMemo.

技术信息完全一致,但token节省了74%。

━━━━

四、技术原理:它是怎么做到的

caveman的核心是一个精心设计的系统提示词(System Prompt),没有任何花哨的模型微调,就是纯提示词工程。

工作原理三条:

第一步:识别并删除语言冗余——冠词(a/an/the)、填充词(just/really/basically/actually)、客套话(sure/certainly/happy to)、hedging词(likely/probably/perhaps)。

第二步:用极简片段重构内容——”bug in auth middleware” 比 “the issue you are experiencing is most likely caused by your authentication middleware not properly validating the token expiry conditions” 信息量相同,但短了10倍。

第三步:保留所有技术术语和代码块——`useMemo`、`DROP TABLE`这类精确表达不动。

━━━━

五、压缩强度分级:lite / full / ultra

caveman提供三个压缩等级,举例”为什么React组件会重复渲染?”

lite(轻度压缩):

Your component re-renders because you create a new object reference each render. Wrap it in useMemo.

保留完整语法,去掉填充词,保留基本礼貌用语。适合日常对话,节省约50% token。

full(标准压缩):

New object ref each render. Inline object prop = new ref = re-render. Wrap in useMemo.

经典穴居人风格,去掉冠词和完整句子,允许片段表达。适合技术文档、代码解释,节省约75% token。默认模式。

ultra(极限压缩):

Inline obj prop – new ref – re-render. useMemo.

缩写(DB/auth/config/req/res/fn/impl),用箭头表达因果关系,能用一个词就不用两个词。适合极简主义者,节省最多可达87% token。

━━━━

六、文言文模式:文言文也能玩caveman

这可能是最有意思的功能——caveman支持中文文言文压缩!

同一个问题”为什么React组件会重复渲染”:

wenyan-lite(半文白):

組件頻重繪,以每繪新生對象參照故。以 useMemo 包之。

wenyan-full(文言文):

物出新參照,致重繪。useMemo .Wrap之。

wenyan-ultra(极限文言):

新參照-重繪。useMemo Wrap。

这种极简文言风格不只是好玩——它本质上也是一种超高强度的token压缩,对于中文用户来说可能比英文穴居人更直观。

━━━━

七、除了说话还有啥:caveman全家桶

caveman不只是说话压缩,它是一个完整工具家族:

caveman-commit:极简Git提交信息

普通模式:

fix: fixed critical authentication bypass vulnerability in the middleware by properly validating token expiry conditions and implementing correct comparison operator

caveman模式:

fix: auth bypass – use LTE not LT for token expiry

caveman-review:一句话代码审查

普通模式:洋洋洒洒一段分析报告

caveman模式:

Memory leak – conn.release() missing in except block.

caveman-compress:输入压缩工具

每次对话开始前先用它压缩你的prompt,可以额外节省约46%输入token。这个工具独立使用,不必配合其他caveman功能。

━━━━

八、安装教程:5分钟配置完成

第一步:安装caveman插件(Claude Code为例)

claude plugin marketplace add JuliusBrussee/caveman && claude plugin install caveman@caveman

其他AI编程助手安装方式:

# Codex
# 克隆仓库到/plugins目录,搜索"Caveman"安装

gemini extensions install https://github.com/JuliusBrussee/caveman

# Cursor
npx skills add JuliusBrussee/caveman -a cursor

# Windsurf
npx skills add JuliusBrussee/caveman -a windsurf

# Copilot
npx skills add JuliusBrussee/caveman -a github-copilot

# Cline
npx skills add JuliusBrussee/caveman -a cline

第二步:验证安装

claude

出现以下输出说明安装成功:

caveman active. few token. big brain.

第三步:开始使用

激活方式:在Claude Code中输入以下命令即可开启穴居人模式:


/caveman

切换强度:


/caveman lite # 轻度压缩
/caveman full # 标准压缩(默认)
/caveman ultra # 极限压缩

切换文言文模式:


/caveman wenyan-lite # 半文白
/caveman wenyan-full # 文言文
/caveman wenyan-ultra # 极限文言

关闭模式:


stop caveman
# 或
normal mode

━━━━

九、谁在用caveman?

API开发者:如果你在用付费AI API,token节省直接等于账单减少。假设每天调用10000次,每次节省75% token,费用直接少付75%。

编程学习者:预算有限但问题无限。caveman可以让你在同样预算下多问3到4倍的问题。

团队:多人共用AI服务时,caveman可以让团队整体使用效率大幅提升。

追求效率的工程师:拒绝废话,拥抱极简——这不只是一种工具使用习惯,更是一种工程美学。

━━━━

十、学术依据:少说话反而更聪明

2026年3月的一篇论文”Brevity Constraints Reverse Performance Hierarchies in Language Models”(arXiv:2604.00025)发现:约束大模型输出简短回复,在某些基准测试中准确率反而提升了26个百分点,完全逆转了性能排序。

这意味着:更冗长的AI回复不一定更好。有时候,少说话=更正确。

━━━━

十一、常见问题

Q:caveman会不会丢失重要信息?
A:不会。caveman压缩的是语言中的冗余部分,所有技术细节完全保留。ultra模式可能会有极少数细节丢失,建议重要场景使用full模式。

Q:caveman影响思考能力吗?
A:不影响。caveman只压缩输出token,AI的思考过程(thinking tokens)完全不变。它让AI”嘴变小”,不是让AI”脑子变小”。

Q:支持哪些AI模型?
A:本质上是系统提示词工程,理论上任何基于prompt的AI模型都能用。但官方针对Claude Code、Codex、Gemini CLI优化最好。

Q:文言文模式对中文用户有什么价值?
A:文言文本身也是高度压缩的表达方式,同等意思比现代白话文更短。对于中文用户,文言caveman比英文版更直观,也更能节省token。

Q:企业使用有什么建议?
A:建议先在非关键业务场景测试,确认压缩效果符合预期后再应用到正式环境。安全警告、不可逆操作确认等场景caveman会自动退出。

━━━━

相关推荐

如果你对AI效率工具有兴趣,以下项目值得关注:

cavemem(https://github.com/JuliusBrussee/cavemem):caveman记忆增强,记住更多上下文

cavekit(https://github.com/JuliusBrussee/cavekit):caveman开发工具包,用穴居人方式构建AI应用

crewAI(https://github.com/joaomdmoura/crewAI):多智能体协作框架,让AI也能团队作业

Claude Code(https://github.com/anthropics/claude-code):本地运行的AI编程助手

Continue(https://github.com/continueconfig/continue):VS Code中的AI代码助手

© 版权声明
THE END
喜欢就支持一下吧
点赞9 分享
评论 抢沙发

请登录后发表评论

    暂无评论内容

七天热门