Anthropic公司周二表示,由于"人为错误",该公司意外泄露了其AI编程助手Claude Code的部分内部源代码。
一个内部使用文件被错误地包含在软件更新中,该文件指向了一个包含近2000个文件和50万行代码的存档,这些代码很快被复制到开发者平台GitHub上。周三早些时候,一篇在X平台上分享泄露代码链接的帖子获得了超过2900万次浏览,重写版本的源代码迅速成为GitHub历史上下载速度最快的代码库。Anthropic发出版权撤除请求,试图遏制代码的传播。根据The Verge报道,用户在代码中发现了类似电子宠物的编程助手和常驻AI智能体的设计蓝图。
Anthropic发言人表示:"今天早些时候,Claude Code发布版本包含了一些内部源代码。没有涉及或暴露任何敏感的客户数据或凭据。这是由人为错误造成的发布打包问题,而不是安全漏洞。"
暴露的代码与该工具的内部架构相关,但不包含来自Anthropic底层AI模型Claude的机密数据。
Claude Code的源代码之前已被部分了解,因为该工具曾被独立开发者逆向工程。该助手的早期版本在2025年2月也曾暴露过源代码。
Claude Code已成为Anthropic的关键产品,该公司付费订阅用户基础持续增长。据TechCrunch上周报道,Anthropic发言人透露,今年付费订阅用户数量增长了一倍多。Anthropic的Claude聊天机器人也因CEO达里奥·阿莫代伊与五角大楼的争执而获得人气提升。一个多月前,Claude在美国苹果免费应用排行榜中攀升至榜首。阿莫代伊拒绝在大规模监控和全自主武器使用方面妥协,坚持公司技术使用的底线。
这是Anthropic近几周来第二次发生数据泄露事件。《财富》杂志此前报道了另一起泄露事件,并指出该公司在公开可访问的系统上存储了数千个内部文件,包括一份博客文章草稿,其中提及了名为"Mythos"和"Capybara"的即将发布的模型。
一些专家担心这些泄露事件表明Anthropic内部存在安全漏洞。对于一家专注于AI安全的公司来说,这可能特别令人担忧。
这些泄露还可能帮助OpenAI和谷歌等竞争对手更好地了解Claude Code AI系统的工作原理。《华尔街日报》报道称,最近的泄露包含商业敏感信息,如让AI模型作为编程智能体工作的工具和指令。
最新的泄露事件发生在美国政府将Anthropic指定为供应链风险的几周之后;Anthropic正在法庭上对抗这些指控。上周,美国地区法官批准了临时禁令,阻止了这一指定。
Q&A
Q1:Claude Code是什么?为什么会泄露源代码?
A:Claude Code是Anthropic公司开发的AI编程助手。源代码泄露是因为人为错误,一个内部使用文件被错误地包含在软件更新中,导致近2000个文件和50万行代码被暴露到GitHub平台上。
Q2:这次泄露会对Anthropic公司造成什么影响?
A:泄露可能帮助OpenAI和谷歌等竞争对手了解Claude Code的工作原理,还暴露了商业敏感信息。专家担心这表明公司内部存在安全漏洞,对于专注AI安全的Anthropic来说特别令人担忧。
Q3:Anthropic最近还有其他安全问题吗?
A:是的,这是几周内第二次数据泄露。之前还有另一起事件,公司在公开系统上存储了数千个内部文件。此外,美国政府还将Anthropic指定为供应链风险,公司正在法庭上对抗这些指控。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。