思科的Agntcy项目成为Linux基金会接纳的最新AI框架。
Agntcy项目由思科与LangChain和Galileo合作开发,自称为"智能体互联网",旨在促进软件机器人的发现和识别、它们之间的消息传递以及行为的可观测性。
该项目的核心理念是为开发者提供安全工具,连接来自不同供应商的智能体,无论这些软件使用何种框架、工具调用范式或通信协议。
思科Outshift部门高级副总裁Vijoy Pandey在声明中表示:"构建智能体互联网的基础设施需要社区所有权,而非供应商控制。Linux基金会确保这一关键基础设施保持中立,让所有构建多智能体系统的人都能访问。"
Agntcy并非Linux基金会接纳的首个智能体框架或协议。上个月,谷歌向该基金会捐赠了其智能体到智能体(A2A)协议,旨在为AI智能体提供通用语言,用于相互发现和委派任务。
IBM也向Linux基金会贡献了多个开源项目,包括其智能体到智能体平台BeeAI。
虽然Anthropic的模型上下文协议(MCP)不是Linux基金会项目,但作为连接AI系统与数据源、API和工具的方法已变得极受欢迎。
A2A和MCP只是智能体AI拼图的两个部分。Agntcy旨在填补构建、调试和保护多智能体系统所需的缺失环节。
例如,如果要连接基于A2A的智能体与使用智能体连接协议(ACP)的另一个智能体,需要编写包装器来翻译A2A到ACP,反之亦然。
在此场景下,Agntcy的协议和软件框架集合可充当通用翻译器,让两个智能体交换信息。该框架还提供通过安全低延迟交互消息(SLIM)协议进行通信的途径。
与A2A和MCP一样,Agntcy获得了超过60家公司的大力支持。其中五家——思科、戴尔、谷歌、甲骨文和红帽——已承诺在Linux基金会治理下进一步开发该项目。
好文章,需要你的鼓励
腾讯ARC实验室推出AudioStory系统,首次实现AI根据复杂指令创作完整长篇音频故事。该系统结合大语言模型的叙事推理能力与音频生成技术,通过交错式推理生成、解耦桥接机制和渐进式训练,能够将复杂指令分解为连续音频场景并保持整体连贯性。在AudioStory-10K基准测试中表现优异,为AI音频创作开辟新方向。
Coursera在2025年连接大会上宣布多项AI功能更新。10月将推出角色扮演功能,通过AI人物帮助学生练习面试技巧并获得实时反馈。新增AI评分系统可即时批改代码、论文和视频作业。同时引入完整性检查和监考系统,通过锁定浏览器和真实性验证打击作弊行为,据称可减少95%的不当行为。此外,AI课程构建器将扩展至所有合作伙伴,帮助教育者快速设计课程。
Meta与特拉维夫大学联合研发的VideoJAM技术,通过让AI同时学习外观和运动信息,显著解决了当前视频生成模型中动作不连贯、违反物理定律的核心问题。该技术仅需添加两个线性层就能大幅提升运动质量,在多项测试中超越包括Sora在内的商业模型,为AI视频生成的实用化应用奠定了重要基础。