对于11月才推出的技术来说,模型上下文协议(MCP)已经开始积累大量用户,几乎保证了实现行业标准所需的大规模采用。
但是,目前有一部分企业并未加入这一热潮:受监管的行业,特别是金融机构。
银行和其他提供贷款及金融解决方案的企业对AI并不陌生。许多企业在机器学习和算法方面都是先驱,甚至在推广使用机器人投资理念方面发挥了关键作用。然而,这并不意味着金融服务公司希望立即加入MCP和智能体到智能体(A2A)的潮流。
虽然许多受监管的公司,如银行、金融机构和医院,已经开始尝试AI智能体,但这些通常是内部智能体。受监管公司确实拥有API,但这些公司进行的集成需要经过多年的审查以确保合规性和安全性。
Catena Labs联合创始人肖恩·内维尔表示:"在这个快速发展的领域,现在还处于非常早期的阶段,但至少在与互操作性和通信相关的标准或最佳实践方面,还缺少一些基本构建模块。在网络早期,没有电子商务是因为没有HTTPS,没有安全交易的方式,所以无法构建亚马逊。你需要这些基本构建模块到位,现在网络上这些构建模块已经存在,我们甚至不会去思考它们。"
越来越多的企业和AI平台提供商在开发与外部来源智能体交互的多智能体系统时建立MCP服务器。MCP提供识别智能体的能力,允许服务器确定其可访问的工具和数据。然而,许多金融机构希望获得更多保证,确保它们能够控制集成并确保只有经过批准的任务、工具和信息才能被共享。
美国银行子公司Elavon的高级副总裁约翰·沃尔德伦在接受VentureBeat采访时表示,虽然他们正在探索使用MCP,但围绕这一标准还有很多问题。
沃尔德伦说:"目前还没有很多标准解决方案出现,所以我们仍在探索很多方法,包括如果智能体技术在两者之间是通用的,而只是两个不同的域,可能不通过MCP交换来进行连接。但是,在没有其他消息暴露的情况下,数据交换的可追溯性如何?目前MCP评估中发生的很多事情都是在确定协议是否只是处理交换而不提供任何进一步的风险泄露。如果是这样,那么这是我们将探索用于处理交换的可行路径。"
模型和智能体是不同的
金融机构和其他受监管企业对AI模型并不陌生。毕竟,当机器人顾问——算法在很少或没有人工干预的情况下做出财务规划和投资决策——变得流行时,被动投资大幅增长。许多银行和资产管理公司早期就投资了自然语言处理技术以提高文档分析效率。
然而,Salesforce银行业解决方案和战略副总裁兼总经理格雷格·雅各比告诉VentureBeat,他们的一些金融客户已经有了评估模型的流程,他们发现将AI模型和智能体与当前的风险场景集成具有挑战性。
雅各比说:"机器学习和预测模型与风险框架配合得很好,因为它们是确定性和可预测的。这些公司立即将大语言模型提交给他们的模型风险委员会,发现大语言模型产生非确定性结果。这对这些金融服务公司来说是一个存在性危机。"
雅各比表示,这些公司拥有风险管理框架,如果他们向模型提供输入,他们期望每次都得到相同的输出。任何差异都被视为问题,因此他们需要质量控制方法。虽然受监管公司已经接受了API及其涉及的所有测试,但大多数受监管实体"害怕开放性,害怕推出他们无法控制的如此面向公众的东西"。
然而,Elavon的沃尔德伦并不排除金融机构未来可能致力于支持MCP或A2A的可能性。
他说:"从商业角度和需求来看,我认为MCP是业务逻辑发展方向的重要组成部分。"
沃尔德伦表示,他的团队仍处于评估阶段,"我们还没有为试点目的构建服务器,但我们将看到如何处理智能体到智能体的消息交换。"
智能体无法对另一个智能体进行KYC
Catena Labs的内维尔表示,他正在密切关注围绕MCP和A2A等互操作性协议的讨论,特别是因为他相信未来AI智能体将像人类消费者一样成为银行的客户。在创办Catena Labs之前,内维尔联合创立了Circle,这家公司建立了USDC稳定币,因此他对将新技术引入受监管业务的挑战有第一手经验。
由于MCP是开源且新兴的,它仍在不断更新。内维尔表示,虽然MCP提供了对许多公司都很关键的智能体识别功能,但仍缺少一些功能,如通信护栏,最重要的是审计跟踪。这些问题可以通过MCP、A2A甚至像LOKA这样的完全不同的标准来解决。
他说,当前MCP最大的问题之一围绕着身份验证。当智能体成为金融系统的一部分时,即使是MCP或A2A,也没有真正的方法对智能体进行"了解你的客户"。内维尔表示,金融机构需要知道他们的智能体正在与持牌实体打交道,因此智能体必须能够可验证地指向这一点。
"需要有一种方式让智能体说:'这就是我作为智能体的身份,这是我的身份、我的风险以及我代表的是谁。'所有这些不同的智能体框架都能理解的可验证身份将是关键。"
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。