维护咨询 大模型部署 问题解决 技能定制 大模型训练
caveman:让AI学会”穴居人说话”,25天斩获5万星的开源工具,输出token直降75%
2026年4月29日 GitHub Trending
一个叫”caveman”的开源项目正在GitHub疯狂增长:25天拿下49546颗星,成为本季度增长最快的AI工具之一。它的核心功能只有一个:让AI学会用”穴居人的方式”说话,把冗长的AI回复压缩75%,同时完整保留技术内容。
项目地址:https://github.com/JuliusBrussee/caveman
━━━━
一、它解决了什么问题
用ChatGPT、Claude写代码时,你一定遇到过这种情况:问了一个简单技术问题,AI回复洋洋洒洒几百字,”当然,我很乐意帮你分析这个问题”、”这是一个非常有趣的话题”之类的废话占了一半。更要命的是,这些回复是按token计费的——废话越多,钱包越瘦。
caveman的开发者JuliusBrussee发现了这个痛点:让AI用极简的”穴居人语言”回复,技术干货一个不少,废话全部砍掉。结果令人震惊:平均节省65%输出token,最多可达87%。
━━━━
二、实测数据:真的省token吗?
这是官方提供的真实API调用数据(可自行复现:运行 uv run python evals/llm_run.py):
任务名称 普通模式(token) caveman模式(token) 节省比例
解释React重复渲染bug 1180 159 87%
修复auth中间件token过期判断 704 121 83%
搭建PostgreSQL连接池 2347 380 84%
解释git rebase vs merge 702 292 58%
将回调重构为async/await 387 301 22%
微服务vs单体架构对比 446 310 30%
安全审查PR代码 678 398 41%
Docker多阶段构建 1042 290 72%
调试PostgreSQL竞态条件 1200 232 81%
实现React错误边界 3454 456 87%
平均 1214 294 65%
实际测试中,同一个问题:
普通Claude:”The reason your React component is re-rendering is likely because you are creating a new object reference on each render cycle. When you pass an inline object as a prop, React shallow comparison sees it as a different object every time, which triggers a re-render. I would recommend using useMemo to memoize the object.”
caveman Claude:”New object ref each render. Inline object prop = new ref = re-render. Wrap in useMemo.”
技术信息完全一致,但token从69个降到19个。
━━━━
三、技术原理:它是怎么做到的
caveman的核心是一个精心设计的系统提示词(System Prompt),没有任何花哨的模型微调,就是纯提示词工程。
工作原理三条:
第一步:识别并删除语言冗余——冠词(a/an/the)、填充词(just/really/basically/actually)、客套话(sure/certainly/happy to)、hedging词(likely/probably/perhaps)。
第二步:用极简片段重构内容——”bug in auth middleware” 比 “the issue you are experiencing is most likely caused by your authentication middleware not properly validating the token expiry conditions” 信息量相同,但短了10倍。
第三步:保留所有技术术语和代码块——useMemo、DROP TABLE这类精确表达不动。
━━━━
四、压缩强度分级: lite / full / ultra
caveman提供三个压缩等级,举例”为什么React组件会重复渲染?”
lite(轻度压缩):”Your component re-renders because you create a new object reference each render. Wrap it in useMemo.”
保留完整语法,去掉填充词,保留基本礼貌用语。适合日常对话,节省约50% token。
full(标准压缩):”New object ref each render. Inline object prop = new ref = re-render. Wrap in useMemo.”
经典穴居人风格,去掉冠词和完整句子,允许片段表达。适合技术文档、代码解释,节省约75% token。默认模式。
ultra(极限压缩):”Inline obj prop to new ref to re-render. useMemo.”
缩写(DB/auth/config/req/res/fn/impl),用箭头表达因果关系,能用一个词就不用两个词。适合极简主义者,节省最多可达87% token。
━━━━
五、文言文模式:文言文也能玩caveman
这可能是最有意思的功能——caveman支持中文文言文压缩!
同一个问题”为什么React组件会重复渲染”:
wenyan-lite(半文白):”組件頻重繪,以每繪新生對象參照故。以 useMemo 包之。”
wenyan-full(文言文):”物出新參照,致重繪。useMemo .Wrap之。”
wenyan-ultra(极限文言):”新參照to重繪。useMemo Wrap。”
这种极简文言风格不只是好玩——它本质上也是一种超高强度的token压缩,对于中文用户来说可能比英文穴居人更直观。
━━━━
六、除了说话还有啥:caveman全家桶
caveman不只是说话压缩,它是一个完整工具家族:
caveman-commit:极简Git提交信息
普通模式:”fix: fixed critical authentication bypass vulnerability in the middleware by properly validating token expiry conditions and implementing correct comparison operator”
caveman模式:”fix: auth bypass – use LTE not LT for token expiry”
caveman-review:一句话代码审查
普通模式:洋洋洒洒一段分析报告
caveman模式:”Memory leak – conn.release() missing in except block.”
caveman-compress:输入压缩工具
每次对话开始前先用它压缩你的prompt,可以额外节省约46%输入token。这个工具独立使用,不必配合其他caveman功能。
━━━━
七、安装教程:5分钟配置完成
第一步:安装caveman插件(Claude Code为例)
claude plugin marketplace add JuliusBrussee/caveman && claude plugin install caveman@caveman
其他AI编程助手安装方式:
Codex:克隆仓库到/plugins目录,搜索”Caveman”安装
Gemini CLI:gemini extensions install https://github.com/JuliusBrussee/caveman
Cursor:npx skills add JuliusBrussee/caveman -a cursor
Windsurf:npx skills add JuliusBrussee/caveman -a windsurf
Copilot:npx skills add JuliusBrussee/caveman -a github-copilot
Cline:npx skills add JuliusBrussee/caveman -a cline
第二步:验证安装
claude
出现以下输出说明安装成功:
“🪨 caveman active. few token. big brain.”
第三步:开始使用
激活方式:在Claude Code中输入 /caveman 即可开启穴居人模式。
切换强度:/caveman lite(轻度)/caveman full(标准,默认)/caveman ultra(极限)
关闭模式:输入 stop caveman 或 normal mode 即可恢复正常AI说话方式。
━━━━
八、谁在用caveman?
API开发者:如果你在用付费AI API,token节省直接等于账单减少。假设每天调用10000次,每次节省75% token,费用直接少付75%。
编程学习者:预算有限但问题无限。caveman可以让你在同样预算下多问3到4倍的问题。
团队:多人共用AI服务时,caveman可以让团队整体使用效率大幅提升。
追求效率的工程师:拒绝废话,拥抱极简——这不只是一种工具使用习惯,更是一种工程美学。
━━━━
九、学术依据:少说话反而更聪明
2026年3月的一篇论文”Brevity Constraints Reverse Performance Hierarchies in Language Models”(arXiv:2604.00025)发现:约束大模型输出简短回复,在某些基准测试中准确率反而提升了26个百分点,完全逆转了性能排序。
这意味着:更冗长的AI回复不一定更好。有时候,少说话=更正确。
━━━━
十、常见问题
Q:caveman会不会丢失重要信息?
A:不会。caveman压缩的是语言中的冗余部分,所有技术细节完全保留。ultra模式可能会有极少数细节丢失,建议重要场景使用full模式。
Q:caveman影响思考能力吗?
A:不影响。caveman只压缩输出token,AI的思考过程(thinking tokens)完全不变。它让AI”嘴变小”,不是让AI”脑子变小”。
Q:支持哪些AI模型?
A:本质上是系统提示词工程,理论上任何基于prompt的AI模型都能用。但官方针对Claude Code、Codex、Gemini CLI优化最好。
Q:文言文模式对中文用户有什么价值?
A:文言文本身也是高度压缩的表达方式,同等意思比现代白话文更短。对于中文用户,文言caveman比英文版更直观,也更能节省token。
Q:企业使用有什么建议?
A:建议先在非关键业务场景测试,确认压缩效果符合预期后再应用到正式环境。安全警告、不可逆操作确认等场景caveman会自动退出。
━━━━
相关推荐
如果你对AI效率工具有兴趣,以下项目值得关注:
cavemem(https://github.com/JuliusBrussee/cavemem):caveman记忆增强,记住更多上下文
cavekit(https://github.com/JuliusBrussee/cavekit):caveman开发工具包,用穴居人方式构建AI应用
crewAI(https://github.com/joaomdmoura/crewAI):多智能体协作框架,让AI也能团队作业
Claude Code(https://github.com/anthropics/claude-code):本地运行的AI编程助手
Continue(https://github.com/continueconfig/continue):VS Code中的AI代码助手








暂无评论内容