省token神器3天狂揽4.1k星,19岁小哥开发,信息无损最高省87%
信息无损Token最高节省87%,一款省Token神器正在GitHub蹿红。
短短3天,纯靠口口相传,GitHub总揽星4.1K,增长曲线更是堪比“旱地拔葱”:
连开发这个项目的19岁外国小哥也懵了,直呼属实没想到。
本来是自己随手花10分钟写的一个“joke”,结果却意外受到大家的追捧。
他之所以将其称为“joke”,也实在是因为这个名为caveman(山顶洞人)的项目,背后原理过于简单:啰嗦并不总是更好,有时字数少=更正确。
没错,这个给Claude Code/Codex用的插件,核心目标就是让Agent“像山顶洞人一样说话”(俗称言简意赅)。
比如明明给的解决方案一样,普通Claude需要用一大段话来描述:
(翻译)你的React组件之所以会重新渲染,很可能是因为你在每次渲染周期中都创建了一个新的对象引用。当你将一个内联对象作为prop传递时,React的浅层比较会认为它每次都是一个不同的对象,从而触发重新渲染。我建议你使用 useMemo 来缓存该对象。
而caveman则相当简洁:
(翻译)每次渲染都会创建新的对象引用。内联对象作为prop传递=新的引用=触发重新渲染。用useMemo包裹起来即可。
初步测试显示,它在保持完全技术准确性的同时,将输出Token减少约75%。
此外还有一个配套工具,可以压缩用户的记忆文件,从而将每次会话的输入Token减少约45%。
目前这个插件在支持skills的环境中,已经可以一行安装:
npx skills add JuliusBrussee/caveman
“有时少数Token就够了”
老实说,让Agent学会言简意赅从而节省Token的想法,也不是第一天出现了。
开发caveman的小哥就提到,今年3月的一篇论文已经发现:
通过简洁性约束(强制简短回答),大模型的准确率提升了26个百分点,而且在数学推理和科学知识基准上,完全逆转了性能层级(原本大模型不如小模型,结果后来反超了)。
所以小哥就说了,caveman的诞生就源于这样一个人所共知的观察——
“山顶洞人式表达”(caveman-speak)能大幅减少大语言模型的Token使用量,同时不损失技术实质内容。
来看一组Before/After你就明白了:
表达同样一个修复任务,正常Claude需要用到69个Tokens,而caveman只需要19个。
Token一下子就节省了约75%,且不影响Agent理解任务需求以及给出解决方案。
据小哥介绍,caveman会完全保留以下内容:
代码块、行内代码、URL、文件路径、命令、标题、表格结构、日期、版本号等。任何技术性内容都保持原样通过,只有自然语言文本会被压缩。
换言之,只有一些不必要的废话会被丢掉。(p.s:之前Claude Code一句“你好”就干掉13%的额度)
当然,你还能自己控制Agent的简洁程度,从啰嗦到极简(Lite→Full→Ultra)任你选。
Lite:删掉客套话和废话,保留基本语法结构;
Full:caveman标准版,会省略“一个”、“这个”之类的冠词,句子只说关键词片段,偶尔会配上一些简短的语气词,说话风格有点像山顶洞人;
Ultra:极致压缩模式,能省则省。
至于究竟能节省多少Token,小哥也在真实的Claude API上测试了一下(可复现)——
10个任务,最终节省的Token范围为22%–87%,平均下来高达65%。
具体任务包括但不限于:解释React重渲染bug、修复认证中间件Token过期问题、设置PostgreSQL连接池、解释git rebase与merge的区别、重构回调为async/await……
不过小哥也提醒,caveman仅影响输出Token,思考/推理Token不受影响。
caveman不会让大脑变小,会让嘴巴变小。最大的胜利是可读性和速度,成本节约是额外的好处。
具体安装方式如下:
如果你用的是Cursor/Copilot/Windsurf/Claude Code这类AI编程工具,在支持skills的环境中,可以一行安装:
npx skills add JuliusBrussee/caveman
如果你想明确装到某个Agent,可以像这样:
npx skills add JuliusBrussee/caveman -a cursornpx skills add JuliusBrussee/caveman -a copilotnpx skills add JuliusBrussee/caveman -a clinenpx skills add JuliusBrussee/caveman -a windsurf
Claude Code用户还能这样装:
claude plugin marketplace add JuliusBrussee/cavemanclaude plugin install caveman@caveman
Codex相对麻烦一点,需要先clone仓库,在项目里打开Codex,然后通过/plugins搜索Caveman并手动安装。
装完后,选择caveman模式或直接说“像caveman那样说话”“请少用一些Token”,就能召唤山顶洞人。
停止的话,也是切到正常模式或直接说“stop caveman”即可。
背后是一位年仅19岁的开发者
有意思的是,caveman的作者也相当年轻——
Julius Brussee,目前19岁,正在荷兰莱顿大学读大一,专业为数据科学与人工智能。
虽然刚上大学,但他已经是个比赛和创业经验都很丰富的“老手”了(bushi。
2025年1月,他创办了Revu Labs,主要开发Revu这款原生macOS学习应用。
简单来说,Revu能自动把你上传的PDF变成学习材料,然后用和多邻国差不多的智能算法安排复习。它背后有多个Agent协同干活,同时保证数据零损坏、全本地化。
然后他又参加了埃因霍芬理工大学的创新大赛,比赛过程中构建了一个企业级知识管理平台Stacklink。
这一次更复杂,Stacklink需要将公司分散在各处的信息(如Google Docs、Slack、Notion)全部接进来,然后统一建索引,尤其是还要考虑AI幻觉问题。
再到最近,他又联合创办了Pitchr这家公司,担任产品与技术负责人。
一看Pitchr的产品,估计大家都会会心一笑,因为它是专门开发AI演讲辅助平台的(帮你更好展示PPT)。
以及履历中暂无,但Julius自己补充的一点:
之前还创办了Locked In(集成NFC的iOS生产力应用,首周留存率100%)和Neurabridge(曾获经济学人报道的AI咨询公司)。
不过,虽然开发了这一连串项目,但caveman的意外走红也让Julius无限感慨:
好好好,随手写的“joke”火了,而我花了几个月时间用心打磨的Revu、Stacklink……却没有这种待遇。
大家都很喜欢caveman这个功能。人们纷纷安装,我笑得前仰后合。
但这里有个没人谈论的事情——我花了几个月时间认真做的项目,在同周也获得了认可,但关注程度却没那么高。我并非抱怨,只是在观察。
传播的关键在于共鸣,那个梗打开了门。真正的工作在背后。
caveman争议也不少
当然了,caveman的走红也不止是因为“让AI像原始人说话”这个梗,背后也不乏一些争议。
讨论较多的有两点:
大部分节省的都是输出Token,而真正的成本是上下文输入Token。
强迫大模型更简洁是否会让它变笨。
对此,作者也现身Hacker News评论区疯狂叠甲:
这项技能并不是为了减少隐藏的推理/思考Token。Anthropic自己的文档建议更多的思考预算可以提高性能,所以我不会提出相反的观点。
它所针对的是可见的完成:更少的开场白,更少的填充内容,更少的精致但非必要的文本。因此,由于完成后的输出被“原始化”了,代码完全没有受到这项技能的影响。
公平的批评是,我“~75%”的READM数据来自初步测试,而非严格的基准测试。这应该更谨慎地表述,我现在正在做一个正式的评估。
翻译过来就是,降本只是附带的、减少的是不必要的Token所以一般不会变笨。
在作者看来,caveman只是一个有趣的想法,比一些人以为的使用范围要窄,接下来还需要更精确的基准测试。
而这,也和部分网友得出的结论差不多:
因为有趣和真正聪明地减少了输出Token而获得A+。
但它不是降低总成本的灵丹妙药,可能会让Claude的智商下降几个点。
所以,有试过的朋友分享下感受如何吗(观望.jpg)?
GitHub:https://github.com/JuliusBrussee/caveman
参考链接:
[1]https://news.ycombinator.com/item?id=47647455
[2]https://www.reddit.com/r/ClaudeAI/comments/1sble09/taught_claude_to_talk_like_a_caveman_to_use_75/
本文来自微信公众号“量子位”,作者:关注前沿科技,36氪经授权发布。