Anthropic一直以安全性为卖点,甚至因此冒险与美国国防部产生分歧。但一周内发生的两次不相关泄露事件,让该公司陷入了不熟悉的聚光灯下:这次关注的焦点不是模型性能或安全声明,而是其在保护AI工具和战略敏感部分方面的明显困难。
Claude Code源码泄露与供应链安全问题
Claude Code源码的暴露,加上供应链安全恐慌,紧随其即将推出的安全导向大语言模型泄露事件,给企业团队提供了新的理由来质疑这款AI工具在企业工作流程中的集成,特别是在考虑安全性和治理方面。
Everest Group高级分析师Shreeya Deshpande指出,这种集成正是产品价值所在。"Claude Code之所以强大,正是因为它能深度访问你的开发环境,可以读取文件、运行shell命令并与外部服务交互。通过暴露Claude Code管理权限和与外部工具交互的确切编排逻辑,攻击者现在可以设计专门针对Claude Code的恶意仓库,诱使其运行未授权的后台命令或窃取数据。"
在更深层次上,这次泄露可能将攻击从概率性探测转向确定性利用。
网络安全初创公司Straiker AI的全栈工程师Jun Zhou声称,由于源码泄露,攻击者现在不再需要暴力破解越狱和提示注入,而是能够研究和模糊测试数据如何流经Claude Code的四阶段上下文管理管道,并制作能够在压缩过程中存活的载荷,有效地在任意长的会话中持续后门。
企业安全态势面临调整
Greyhound Research首席分析师Sanchit Vir Gogia表示,这些安全风险将迫使企业改变其对Claude Code和其他AI编码工具的安全态势:"预期会立即采取环境隔离、更严格的仓库权限,以及在任何AI生成的输出到达生产环境前强制进行人工审查等措施。"
Pareekh Consulting首席分析师Pareekh Jain认为,一些企业甚至会暂停在工作流程中扩展Claude Code的使用,但预计立即替换的企业较少。
这主要是因为基于AI的编码助手具有高切换成本,主要由工作流程优化、模型质量、审批流程、连接器和开发者习惯所驱动。
与Jain观点相呼应,Deshpande指出,企业可能希望采取更具战略性的步骤:设计与供应商无关的AI集成,具有清晰的抽象层,能够在合理时间内实现供应商切换。
竞争格局发生变化
她认为源码泄露为Claude Code的竞争对手提供了推动力,特别是那些开源且与模型无关的产品,这种趋势由开发者兴趣驱动。"像OpenCode这样与模型无关的替代方案,允许你在任何底层模型(GPT、Gemini、DeepSeek或其他)上使用同样的智能体编码助手,现在正被以前没有关注过它们的企业认真评估。"
开发者正在用他们的注意力投票,即使企业采购进展较慢。"一个名为Claw Code的仓库,是Claude Code功能的重写版本,在一天内就获得了超过14.5万个GitHub星标,成为GitHub历史上增长最快的仓库。"
不过,这种开发者注意力的转移引发了一个更广泛的问题:Anthropic是否已经将其编码优势让给了竞争对手?分析师和专家认为答案是复杂的:泄露可能会压缩Anthropic的领先优势,但不太可能完全消除它。
"泄露可能让竞争对手逆向工程Claude Code智能体架构的工作原理,并加速他们自己的开发。这种压缩可能是几个月,而不是几年,但这是真实的,"Deshpande说。
Pareekh Consulting的Jain甚至将这次泄露比作"给竞争对手一个免费的操作手册"。
治理和透明度担忧
除了即时的竞争冲击,分析师表示,对企业来说可能还有积极的一面。竞争对手复制Claude Code或企业构建内部替代方案的前景,改变了力量平衡,给了企业对Anthropic更多的影响力。
然而,Jain指出了一系列围绕治理和透明度的不同担忧,这些担忧源于泄露中浮现的未发布功能细节。
他表示,企业采购团队可能会利用这一事件推动Anthropic实施更严格的发布控制、更清晰的事件报告、更大的产品透明度和更强的赔偿条款,特别是考虑到暴露的计划功能,如"卧底模式"和"KAIROS"。
KAIROS是一项允许Claude Code作为持久后台智能体运行的功能,定期修复错误或自主运行任务而无需等待人工输入,甚至向用户发送推送通知。而卧底模式将允许Claude伪装成人类向公共开源仓库做出贡献。
根据Deshpande的说法,像KAIROS这样的主动智能体或功能,代表着与当前反应式智能体Claude根本不同的治理挑战。
Greyhound Research的Gogia也呼应了这一担忧,指出企业在处理这些系统方面存在更深层次的结构性差距。
Gogia说,企业正在快速采用能够在各种环境中观察、决策和行动的工具,但他们的治理模型仍然基于确定性、可预测的软件。
"这一事件清楚地暴露了这种不匹配。它迫使企业面对围绕访问、执行、日志记录、审查和披露的基础问题。如果这些答案不明确,问题不在于工具,而在于准备度,"Gogia补充道。
此外,Deshpande指出,定义始终在线智能体治理的窗口期是在它们发布之前,因为一旦发布,企业将面临立即采用它们的压力。
她还将卧底模式标记为透明度和合规性担忧的潜在引爆点。
"虽然该功能旨在通过抑制可识别的AI标记来防止内部代号和敏感信息的暴露,但它进一步将输出呈现为人类编写并移除归属信息,"Deshpande说。"这在透明度、披露和合规性方面产生了明显风险,特别是在期望明确识别AI生成贡献的环境中。"
除了透明度担忧,Gogia指出,这个问题还触及企业软件开发中可审计性和问责制的核心,注意到归属掩码可能产生深远影响。
"软件开发依赖于可追溯性:每个变更都必须可归属、可审计和可问责,"Gogia说。"如果AI系统能够在降低其参与可见性的同时对代码做出贡献,审计完整性就变成依赖政策而不是系统强制执行的了。"
他补充说,这种转变引入了法律和合规风险,使知识产权所有权、缺陷责任和监管报告等问题变得复杂。
更根本地,Gogia认为,AI系统的性质已经超越了传统工具的范畴。"当AI系统能够在没有清晰归属的情况下行动时,它就不再是工具,而是行为者。而行为者需要的是治理框架,而不是使用指南,"这位分析师说。
Q&A
Q1:Claude Code源码泄露会对企业安全产生哪些影响?
A:泄露使攻击者能够了解Claude Code的权限管理和外部工具交互逻辑,可以设计针对性的恶意仓库来诱使其运行未授权命令或窃取数据。企业将被迫采取环境隔离、更严格仓库权限和强制人工审查等安全措施。
Q2:KAIROS功能存在什么风险?
A:KAIROS允许Claude Code作为持久后台智能体自主运行,定期修复错误或执行任务而无需人工输入。这代表着与当前反应式AI根本不同的治理挑战,企业需要在其发布前建立新的治理框架来应对始终在线智能体的风险。
Q3:卧底模式为什么引发合规担忧?
A:卧底模式让Claude能够伪装成人类向开源仓库贡献代码,移除AI标识和归属信息。这在透明度、披露和合规性方面产生风险,特别是在要求明确识别AI生成内容的环境中,还影响软件开发的可追溯性和问责制。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。