网络安全领域正响起警钟,机器身份以超过企业数据安全保护能力的速度涌入系统。
在英伟达年度GTC大会上,英伟达公司首席执行官黄仁勋介绍了一系列基于OpenClaw的开源工具。OpenClaw是一个开源AI智能体,其中主要工具NemoClaw旨在保护OpenClaw的输出,但安全专家仍然担忧。
theCUBE Research首席分析师Dave Vellante表示:"黄仁勋上周在GTC大会上宣布的所有内容都增加了攻击面和风险。这是我们在RSA大会2026上讨论的全部内容。机器身份现在以8万比1的比例超过人类身份。谷歌告诉我,他们发现超过800个可下载的OpenClaw技能直接就是恶意软件。"
在最新一期theCUBE播客节目中,Vellante和theCUBE Research执行分析师John Furrier讨论了网络安全领域需要进行重大转变的原因。他们还探讨了机器身份的激增,以及云原生和AI原生技术之间的关系。
RSA大会为智能体AI敲响警钟
据Vellante描述,年度网络安全会议RSA大会的氛围令人担忧,他称其为"煤矿中的金丝雀"。如果不及时解决智能体AI问题,可能对网络安全造成灾难性影响,导致越来越难以跟踪和保护的机器身份大量涌入。
Vellante说:"影子AI可能是今年RSA大会的第一或第二大话题。首席信息安全官们对此非常担心。毫无疑问,恐惧因素很高。另一个话题是存在很多未知的未知数。现在的第一道防线是什么?是身份认证吗?是智能体吗?一切都在转变。"
企业很快就需要在其基础设施中部署分层安全来对抗智能体AI驱动的攻击。Vellante和Furrier指出,企业已经担心AI投资回报率,而智能体AI带来的威胁并不令人安心。
Furrier说:"去年每个人都在盲目跟风。三年前的观点是:智能体是胡扯。去年变成'哦,智能体很好,我们可以做端到端工作流程。'今年又变成'糟糕,智能体很危险。'完全绕了一圈。企业正从人类转向自主系统,从被动响应转向实时机器速度。"
机器身份成为新的狂野西部
机器身份对网络安全从业者来说是未开拓的领域。现在的安全不再是人与人交流,或智能体与人交流,而是智能体与智能体之间的交流。Furrier认为,如果智能体AI是问题的根源,那么它可能也必须成为解决方案的一部分。
他解释说:"人类以非确定性方式思考。但黑客使用智能体,它们是非人类的,可以是非确定性的。这是一个完整的架构转变。这对技术栈来说是游戏规则改变者,因为数十年、几代人的安全原则完全被颠覆了。"
每个人都知道智能体AI对网络安全构成风险,但对如何应对意见分歧。Vellante认为,大多数公司尚未完全在其技术栈中采用AI,以超出控制能力的速度实施机器身份将是灾难性的。
他说:"从治理开始。如果你没有强有力的治理结构和强大的安全、治理与合规文化,会发生什么?你会得到影子AI,就像我们有影子IT、影子大数据一样,只是这次更加危险。"
云原生遇见AI原生
在阿姆斯特丹举行的KubeCon 2026展示了云原生从业者如何响应AI推理需求。云原生基础设施已成为AI原生技术的基底,提供必要的治理来控制模型和智能体。
Furrier说:"你开始看到这种新架构的形成,云原生的优势发挥作用,但不是以驱动AI原生的领导方式。这是经典的站在巨人肩膀上的心态,这很美好,因为开源正在蓬勃发展。"
Furrier表示,AI领域仍需要一个接口或框架来控制日益增长的机器身份数量,目前还没有明确的领导者出现。Vellante补充说,随着由机器身份组成的"智能系统"的发展,企业需要弄清楚它与数据的关系。
他说:"如果你要拥有企业的数字表示并让智能体采取行动,就必须有交易。这个智能系统或认知表面的本地性非常重要。企业将运营语义层、交易层,这些都将在接近数据的地方完成。"
Q&A
Q1:OpenClaw是什么?为什么会带来安全风险?
A:OpenClaw是一个开源AI智能体,黄仁勋在英伟达GTC大会上基于它介绍了一系列开源工具。安全风险在于谷歌发现超过800个可下载的OpenClaw技能直接就是恶意软件,这大大增加了攻击面和网络安全风险。
Q2:机器身份激增会带来什么问题?
A:机器身份现在以8万比1的比例超过人类身份,这对网络安全构成前所未有的挑战。与传统的人与人交流不同,现在是智能体与智能体之间的交流,这些机器身份越来越难以跟踪和保护,成为网络安全的新挑战。
Q3:企业应该如何应对智能体AI带来的安全威胁?
A:专家建议从治理开始,企业需要建立强有力的治理结构和安全合规文化。同时需要在基础设施中部署分层安全来对抗智能体AI驱动的攻击,避免出现像影子IT一样的影子AI问题。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。