在GitHub一个更多用于周末实验而非范式转换的安静角落,曾在亚马逊美国工作过的数据分析师Drona Reddy发布了一个markdown文件,承诺能将Claude的输出Token使用量减少一半以上,不是通过修改代码,而是通过重塑模型行为。
这个名为Claude.md的文件采用MIT许可证,概述了一套结构化指令,声称无需任何代码修改即可将Claude的输出冗长度减少约63%。
这些指令对模型施加了严格的行为约束,包括输出长度限制、强调Token效率和准确性、投机控制、排版规则,以及对阿谀奉承回复的零容忍政策。它们还简化了代码生成并定义了明确的覆盖策略,有效训练模型以更简洁和慎重的方式回应。
核心理念很直接:消除Reddy所描述的Claude的"轻浮"习惯,剔除一切非严格必要的内容。这意味着不再有自动客套话如"当然!"或"好问题!",不再有样板结束语如"希望这能帮到你",不再重述提示,不再提供多余建议或过度工程化的抽象。
同时也控制了风格癖好,如"em"破折号、智能引号和其他可能破坏解析器的Unicode字符,同时防止模型反射性地同意有缺陷的假设。
据Reddy称,这种严格性在规模化应用时可能转化为有意义的节省,将小的风格调整转换为超额的效率收益。
这位数据分析师还概述了markdown文件可能最有效的三个不同用例。首先是高容量自动化管道,如简历机器人、智能体循环和代码生成,其中冗长性在重复调用中累积。其次是重复的结构化任务,Claude的默认扩展性在数百次交互中会累积。第三是需要跨会话一致、可解析输出格式的团队环境,更严格的响应控制提高了可靠性和下游可用性。
在Claude Sonnet上的自己模拟中,Reddy表示该文件在100次提示下每天可节省近9600个Token,相当于每月约0.86美元的节省。在每天1000次提示时,节省量上升至约96000个Token,即每月8.64美元,而在三个项目的组合中,他估计减少了近288000个Token,相当于每月约25.92美元。
然而,这位数据分析师也警告说,在某些用例中,该文件可能真的无效,甚至适得其反,比如单次一次性查询、修复深度故障或需要反馈的探索性工作,因为该文件本身在每条消息上都消耗输入Token。
"CLAUDE.md文件本身在每条消息上都消耗输入Token。节省来自减少的输出Token。只有当输出量足够高以抵消持续的输入成本时,净值才是正的。在低使用量时,成本比节省的更多,"Reddy在仓库文档中写道。
分析师确实看到企业及其CIO从markdown文件中获益,至少在某种程度上如此,特别是他们努力平衡螺旋式上升的推理费用并将智能体或其他AI试点投入生产时。
"63%的Token减少可以有意义地降低运行大容量Claude工作负载的企业的推理成本和延迟,"Forrester首席分析师Charlie Dai说。
然而,收益可能更多是操作性的而非变革性的。
"对于CIO来说,这种方法提供了一些操作优势,因为它改善了输出一致性、改善了延迟并强制执行基本的Token纪律,这有助于扩展自动化,"Pareekh Consulting首席分析师Pareekh Jain说。
不过,Jain指出,虽然这是一个"有用的战术优化",但并不根本改变企业AI经济学。
"在企业环境中,这种战术可能转化为更温和的节省,因为输出Token只是总使用量的一部分,输入上下文、检索和智能体编排通常主导成本,"Jain说。"因此,大多数企业可能看到个位数的节省而非标题数字,"他补充道。
该markdown文件设计为模型无关,应该适用于能够遵循结构化指令的大语言模型,尽管Reddy指出他尚未测试其在本地模型(如运行在llama.cpp或Mistral上的模型)上的有效性。
Q&A
Q1:Claude.md是什么?它是如何工作的?
A:Claude.md是一个由数据分析师Drona Reddy发布的markdown文件,包含一套结构化指令,通过对Claude模型施加严格的行为约束来减少输出冗长度。它消除了不必要的客套话、样板结束语和风格癖好,训练模型以更简洁和慎重的方式回应,从而将输出Token使用量减少约63%。
Q2:使用Claude.md能节省多少成本?
A:根据Reddy的模拟,在100次提示下每天可节省近9600个Token,相当于每月约0.86美元。在每天1000次提示时,节省量上升至约96000个Token,即每月8.64美元。但需要注意的是,该文件本身消耗输入Token,只有当输出量足够高时才能实现净节省。
Q3:什么情况下不适合使用Claude.md?
A:Claude.md在某些用例中可能无效甚至适得其反,包括单次一次性查询、修复深度故障或需要反馈的探索性工作。因为该文件在每条消息上都消耗输入Token,在低使用量的情况下,成本可能比节省的还要多。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。