MCP 并非依靠更大模型推动下一波 AI 创新,而真正的颠覆来自于一种更为低调的力量:标准化。
Anthropic 于 2024 年 11 月推出的 Model Context Protocol (MCP) 标准化了 AI 应用程序如何与其训练数据之外的世界进行交互。就像 HTTP 和 REST 标准化了 Web 应用程序连接服务的方式一样,MCP 标准化了 AI 模型连接工具的方式。
你可能已经阅读过不少关于 MCP 的文章,但大多数文章忽略了一个既平凡又强大的部分:MCP 是一个标准。标准不仅仅是组织技术,它们还能创造增长飞轮。早期采用者能够乘上这波浪潮,而忽视的人则会被甩在后面。本文将阐述为什么 MCP 现在尤为重要,它带来了哪些挑战,以及它如何正在重新塑造整个生态系统。
如何让 MCP 带领我们从混乱走向有序
认识一下 Lily —— 一家云基础设施公司的产品经理。她同时使用 Jira、Figma、GitHub、Slack、Gmail 和 Confluence 等半打工具,忙于处理各项项目。和许多人一样,她也被不断更新的信息淹没。
到了 2024 年,Lily 发现大语言模型在信息整合方面已经非常出色。她看到了一个机会:如果她能把团队所有使用的工具接入到一个模型中,她就可以实现自动更新、草拟通讯稿以及按需回答问题。但问题在于,每个大语言模型都有自己特定的服务接入方式。每一次集成都使她更加依赖于单一厂商的平台。当她需要从 Gong 获取记录时,就必须建立另一个定制化连接,这使得日后如果要切换到更优秀的大语言模型变得异常困难。
就在这时,Anthropic 推出了 MCP —— 一个开放协议,用于标准化上下文流向大语言模型的流程。MCP 很快得到了 OpenAI、AWS、Azure、Microsoft Copilot Studio 的支持,不久后 Google 也加入了。官方的 SDK 已经支持 Python、TypeScript、Java、C#、Rust、Kotlin 和 Swift,而社区版 SDK 也陆续为 Go 等语言提供支持。采用速度非常迅速。
如今,Lily 通过本地 MCP 服务器将一切都运行在 Claude 上,并与她在工作中使用的各类应用连接。状态报告自动生成,领导层更新只需一次提示。随着新模型的不断出现,她可以轻松替换而不必更换任何集成。当她私下写代码时,会同时使用 Cursor(配合 OpenAI 的模型)和同一个 MCP 服务器,就像她在使用 Claude 时一样。她的集成开发环境 (IDE) 已经能识别出她正在构建的产品,MCP 让这一切变得简单。
标准的力量及其影响
Lily 的经历揭示了一个简单的事实:没有人喜欢使用碎片化的工具;没有用户愿意被锁定在某个厂商中;而没有任何公司希望在每次更换模型时都得重写集成代码。大家都希望能够自由选择最好的工具,而 MCP 正好满足了这一需求。
然而,伴随标准的出现,也带来了若干影响。
首先,缺乏强大公共 API 的 SaaS 提供商正面临被淘汰的风险。MCP 工具依赖于这些 API,而用户将要求 AI 应用程序支持这些接口。随着事实标准的形成,再也没有借口可以推脱。
其次,AI 应用开发周期将大幅加速。开发者不再需要编写定制代码来测试简单的 AI 应用,取而代之的是他们可以将 MCP 服务器与现成的 MCP 客户端(例如 Claude Desktop、Cursor 和 Windsurf)进行集成。
第三,切换成本正在崩塌。因为集成方式已经与特定模型解耦,组织可以在 Claude、OpenAI、Gemini 之间自由迁移 —— 或者混合使用不同模型 —— 而无需重建基础设施。未来的大语言模型提供商将从围绕 MCP 构建的现有生态系统中受益,使得他们能更专注于实现更优的性价比。
面对 MCP 带来的挑战
每一个标准的出现都不可避免地引入新的摩擦点,或者留下未解决的摩擦点,MCP 也不例外。
信任至关重要:已经出现了数十个 MCP 注册中心,提供数以千计的社区维护服务器。但如果你无法控制服务器 —— 或者不信任控制服务器的一方 —— 则存在将机密泄露给未知第三方的风险。如果你是一家 SaaS 公司,应提供官方服务器;如果你是一位开发者,应选择官方服务器。
质量参差不齐:API 不断演进,而维护不佳的 MCP 服务器很容易不同步。大语言模型依赖高质量的元数据来决定使用哪些工具。到目前为止,还没有权威的 MCP 注册中心,这进一步凸显了来自可信方的官方服务器的重要性。如果你是一家 SaaS 公司,应随着 API 的演进维护好自己的服务器;如果你是一位开发者,请选择官方服务器。
大型 MCP 服务器会增加成本并降低实用性:将过多工具捆绑在一个服务器中会增加 Token 消耗,引发费用上升,而且会让模型面临过多选择而感到困惑。这无疑是两头不讨好。更小、更专注于任务的服务器将变得非常重要,在构建和分发服务器时需要牢记这一点。
授权和身份验证问题依然存在:这些问题在 MCP 之前就存在,MCP 推出后问题依然存在。想象一下,Lily 赋予 Claude 发送邮件的权限,并下达诸如“迅速给 Chris 发送一份状态更新”这样的指令。结果,Claude 没有只给她的老板 Chris 发邮件,而是给她通讯录中所有名叫 Chris 的人发送邮件,以确保 Chris 收到信息。对于高风险、高判断性的操作,人类仍然需要介入。
展望未来
MCP 并非虚名 —— 它代表了 AI 应用基础设施的一次根本性转变。
就像之前每一个被广泛采用的标准一样,MCP 正在形成一个自我强化的增长飞轮:每一个新服务器、每一次新集成、每一个新应用都会不断增加这一势能。
如今,新的工具、平台和注册中心已经在不断涌现,旨在简化 MCP 服务器的构建、测试、部署和发现。随着生态系统不断进化,AI 应用将提供简洁的接口,便于接入新功能。拥抱这一协议的团队将以更快的速度推出产品,同时实现更佳的集成体验。那些提供公共 API 和官方 MCP 服务器的公司也能成为这场集成变革的重要一环,而迟迟不接入的采用者则将为争取存在感而苦苦挣扎。
Noah Schwartz 是 Postman 的产品负责人。
好文章,需要你的鼓励
随着员工自发使用生成式AI工具,CIO面临影子AI的挑战。报告显示43%的员工在个人设备上使用AI应用处理工作,25%在工作中使用未经批准的AI工具。专家建议通过六项策略管理影子AI:建立明确规则框架、持续监控和清单跟踪、加强数据保护和访问控制、明确风险承受度、营造透明信任文化、实施持续的角色化AI培训。目标是支持负责任的创新而非完全禁止。
NVIDIA研究团队开发的OmniVinci是一个突破性的多模态AI模型,能够同时理解视觉、听觉和文本信息。该模型仅使用0.2万亿训练样本就超越了使用1.2万亿样本的现有模型,在多模态理解测试中领先19.05分。OmniVinci采用三项核心技术实现感官信息协同,并在机器人导航、医疗诊断、体育分析等多个实际应用场景中展现出专业级能力,代表着AI向真正智能化发展的重要进步。
英国正式推出DaRe2THINK数字平台,旨在简化NHS全科医生参与临床试验的流程。该平台由伯明翰大学和MHRA临床实践研究数据链开发,能够安全传输GP诊所与NHS试验研究人员之间的健康数据,减少医生的管理负担。平台利用NHS现有健康信息,安全筛查来自450多家诊所的1300万患者记录,并使用移动消息系统保持试验对象参与度,为传统上无法参与的人群开辟了研究机会。
Salesforce研究团队发布BLIP3o-NEXT,这是一个创新的图像生成模型,采用自回归+扩散的双重架构设计。该模型首次成功将强化学习应用于图像生成,在多物体组合和文字渲染方面表现优异。尽管只有30亿参数,但在GenEval测试中获得0.91高分,超越多个大型竞争对手。研究团队承诺完全开源所有技术细节。