Anthropic公司的Claude Code命令行界面应用程序的完整源代码(非模型本身)已被泄露并广泛传播,这显然是由于严重的内部错误导致的。此次泄露为竞争对手和技术爱好者提供了Claude Code工作原理的详细蓝图,对于这家在过去几个月中用户增长爆炸性增长并产生行业影响的公司来说,这是一个重大挫折。
今天早上,Anthropic发布了Claude Code npm包的2.1.88版本,但很快被发现该包包含了一个源映射文件,可以用来访问Claude Code的全部源代码——近2000个TypeScript文件和超过512000行代码。
安全研究员Chaofan Shou是第一个在X平台上公开指出这个问题的人,并提供了包含这些文件的存档链接。随后,该代码库被放置在公共GitHub仓库中,并已被复制数万次。
Anthropic在向VentureBeat等媒体发布的声明中公开承认了这个错误:
"今天早些时候,Claude Code的一个发布版本包含了一些内部源代码。没有涉及或暴露敏感的客户数据或凭据。这是由人为错误导致的发布打包问题,不是安全漏洞。我们正在推出措施防止此类情况再次发生。"
开发者们已经开始分析和研究这些代码。例如,X平台上的@himanshustwts发布了Claude Code内存架构的详细概述,描述了后台内存重写等系统以及在使用前验证内存有效性的各种步骤。
Gabriel Anhaia则从宏观角度进行了分析,解释了一些组件包含多少行代码——类似插件工具系统约40000行,查询系统约46000行——并指出Claude Code是"生产级开发者体验,不仅仅是API的封装",其复杂程度"既令人鼓舞又令人谦卑"。
此前,一些开发者社区曾广泛努力对Claude Code进行逆向工程,并取得了一些成功,但从未达到如此全面的程度。
虽然Anthropic的商业机密受到一定的法律保护,但其中的架构洞察对竞争对手具有价值——有助于改进自己的架构、加快竞争工具的开发、了解Anthropic下一步的工作方向,以及识别Anthropic尚未解决的空白领域。
此外,寻找安全漏洞的恶意行为者现在拥有了绕过Anthropic所设置防护措施的路线图。不过,Claude Code所占据(并目前领导)的类别发展非常迅速,目前很难预测几个月后这会造成多大的问题。
Q&A
Q1:Claude Code源代码是怎么泄露的?
A:Anthropic在发布Claude Code npm包2.1.88版本时,意外包含了一个源映射文件,通过这个文件可以访问Claude Code的全部源代码,包括近2000个TypeScript文件和超过512000行代码。这是由人为错误导致的发布打包问题。
Q2:这次泄露包含哪些内容?会影响用户数据安全吗?
A:泄露的是Claude Code命令行界面应用程序的完整源代码,不是AI模型本身。Anthropic官方声明表示,没有涉及或暴露敏感的客户数据或凭据,这不是安全漏洞而是打包错误。
Q3:源代码泄露对Anthropic会造成什么影响?
A:泄露为竞争对手提供了Claude Code工作原理的详细蓝图,有助于他们改进架构、加快竞争工具开发、了解Anthropic的发展方向。同时,恶意行为者可能利用这些信息寻找安全漏洞和绕过防护措施的方法。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。