Anthropic一直以谨慎的AI公司形象示人。该公司发布详细的AI风险研究,聘用了该领域一些顶尖的研究人员,并一直在积极倡导构建如此强大技术所应承担的责任——如此积极,以至于目前正与国防部展开激烈争论。然而在周二,公司内部有人忘记了检查某个选项。
值得注意的是,这是一周内的第二次事故。上周四,《财富》杂志报道称,Anthropic意外地将近3000个内部文件公开,其中包括一篇描述公司尚未发布的强大新模型的博客草稿。
周二发生的具体情况如下:当Anthropic推出其Claude Code软件包的2.1.88版本时,意外包含了一个文件,暴露了近2000个源代码文件和超过51.2万行代码——基本上是其最重要产品之一的完整架构蓝图。安全研究员邹朝帆几乎立即发现了这一问题,并在X平台上发布了相关信息。Anthropic对多家媒体的声明相当平淡:这是由人为错误造成的发布打包问题,不是安全漏洞。我们猜测,在公司内部,情况可能没有这么平静。
Claude Code并非次要产品。它是一个命令行工具,让开发者能够使用Anthropic的AI来编写和编辑代码,已经变得足够强大,令竞争对手不安。据《华尔街日报》报道,OpenAI在向公众发布仅六个月后就停止了其视频生成产品Sora,将重点转向开发者和企业市场——部分原因正是为了应对Claude Code日益增长的势头。
泄露的内容并非AI模型本身,而是围绕模型的软件架构——告诉模型如何行为、使用什么工具以及限制在哪里的指令。开发者几乎立即开始发布详细分析,其中一位将该产品描述为生产级开发者体验,而不仅仅是API的包装器。
这次泄露是否会产生持久影响,最好留给开发者来判断。竞争对手可能会发现这些架构很有启发性;同时,这个领域发展迅速。
无论如何,在Anthropic的某个地方,你可以想象有一位非常有才华的工程师在这一天剩余的时间里静静地想知道自己是否还有工作。我们只能希望这不是上周末那位工程师或工程团队。
Q&A
Q1:Claude Code是什么产品?有什么重要性?
A:Claude Code是Anthropic开发的命令行工具,让开发者能够使用该公司的AI来编写和编辑代码。它已经变得足够强大,令竞争对手不安。据报道,OpenAI甚至因为Claude Code的竞争压力而停止了视频生成产品Sora,将重点转向开发者市场。
Q2:Anthropic这次泄露了什么内容?
A:当Anthropic推出Claude Code软件包的2.1.88版本时,意外暴露了近2000个源代码文件和超过51.2万行代码,基本上是其最重要产品之一的完整架构蓝图。泄露的是围绕AI模型的软件架构,包括告诉模型如何行为、使用什么工具以及限制条件的指令。
Q3:这是Anthropic第一次出现信息泄露事故吗?
A:不是的,这是一周内的第二次事故。上周四,《财富》杂志报道称Anthropic意外地将近3000个内部文件公开,其中包括一篇描述公司尚未发布的强大新模型的博客草稿。连续的泄露事件对这家以谨慎著称的AI公司来说确实不寻常。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。