模型上下文协议(MCP)作为连接AI助手与数据源及外部工具的开放标准,已在专注开发和部署智能体的AI开发人员圈子里变得不可或缺。但其他开发人员和许多首席信息官现在才刚刚听说这个新的开源协议,它迅速成为潜在标准的热门选择。
有些人认为MCP很快将成为连接AI模型与工具、数据源和网站的官方标准。然而,其他人认为现在判断哪个新协议会胜出还为时过早。这让首席信息官们抓头思考何时、何地以及是否需要将MCP服务器塞进他们已经饱和的AI工具箱中,以及成本对已经超支的IT预算可能造成多大冲击。这不可避免地引出一个问题:是自建还是购买更明智、更便宜?
Descope的联合创始人Rishi Bhargava表示:"紧张之处在于,你是否有持续的能力跟上那些仍在被维护者辩论的协议。你准备好在飞机飞行时建造飞机,还是宁愿在飞行中升级一架完成的飞机?"
给首席信息官决策增加压力的令人不安的事实是,企业领导层开始对新的AI投资产生抵触情绪,因为太少的项目能投入生产。那些确实得到部署的项目似乎对减少工资支出或削减其他成本影响甚微。领导层的不安不仅仅是基于感觉。
MIT的一份报告发现,95%的企业生成式AI试点项目未能实现显著的业务成果。2024年波士顿咨询集团的报告在AI失败率方面稍显保守,但仍然令人沮丧地高。报告指出"74%的公司尚未从AI使用中显示出有形价值",只有"少数公司(总体4%)持续从AI中产生有影响力的结果"。
尽管AI失败率的轻微百分比差异和对其根本原因的辩论仍在继续,但越来越多的人达成共识:AI在兑现承诺方面严重失败。根据SentryTech Solutions的行业分析,"超过80%的组织没有从AI投资中看到对其底线的任何有形影响"。用更可理解的数字来说,SentryTech发现"尽管有头条新闻、炒作和投入AI技术的数十亿资金,五分之四的公司基本上是在烧钱,几乎没有什么收获"。
一些AI开发人员坚信MCP可以帮助AI转向更有利可图的目标。
专注于偏见检测和负责任技术实施的AI咨询公司Fusion Collective的联合创始人兼首席技术官Blake Crawford说:"MCP是为AI驱动的工作流程提供额外工具。如果你的AI系统需要与你的Slack订阅、Google Workspace甚至AWS账户集成,所有这些都是通过MCP实现的。可以将其视为允许现有系统'插入'到你的AI中的合理轻量级方法。"
话虽如此,现在是首席信息官认真审视MCP为公司AI能力增加的价值,并决定是否、如何以及何时推进的时候了。
自建vs购买:MCP服务器的战略考量
据IT服务和IT咨询公司Concentrix的HRIS总监Abhishek Jain说,这个决策本身归结为首席信息官一直必须权衡的相同考虑因素。
Jain说:"从业务角度来看,MCP服务器的自建与购买决策归结为战略优先级和风险承受能力。"内部构建MCP服务器给你"完全控制权",但购买提供"速度、可靠性和更低的运营负担"。
但其他人认为没有理由急于做出决策。
前沿AI开发商Vertus的联合创始人Michal Prywata认为,关于MCP服务器的自建vs购买问题错过了真正的问题。
"大多数公司现在都不应该这样做,"他说,解释说公司应该首先专注于他们试图实现的具体业务目标,而不是他们认为应该添加AI功能的现有应用程序。
"当你有一个需要自定义数据集成的实际AI应用程序,并且你确切了解你试图部署什么智能时,才去构建。如果你只是将ChatGPT连接到你的CRM,你根本不需要MCP,"Prywata说。
什么时候应该购买MCP服务器?根据Prywata的说法,他之前的创业经历涵盖MIT孵化的医疗机器人、农业智能系统和综合空间技术基础设施:"老实说,永远不要。"
Prywata说MCP生态系统"太新了"并且被供应商控制。"你基本上是在押注Anthropic的架构将成为标准。它可能会,但当整个AI格局每隔几个月就在变化时,这是一个有风险的赌注,"他说。
有趣的是,与其他技术投资不同,购买和构建MCP服务器之间的复杂性差异并不大。
Linear的工程主管Tom Moor说:"MCP服务器并不特别难以构建或使用,这是它如此迅速起飞的原因之一。"Linear是为工程团队提供的项目管理工具,其客户包括OpenAI和Perplexity等公司。
不断发展的MCP生态系统:风险、机遇和新兴解决方案
然而,Moor说MCP即服务"绝对是一个事物",并指出Merge Model Context Protocol作为众多例子之一。
"有许多API公司允许你将你的API定义为规范,它们处于引入MCP服务器自动创建的有利位置。然而,你通常不能与传统API进行一对一映射;如何以及向大语言模型暴露什么,需要更多的艺术性,"Moor补充说。
这里的转折是,你今天实际上不需要"购买"MCP服务器。
Anthropic和开源社区已经提供了许多预构建的MCP服务器,涵盖流行的生产力工具(如Google Drive和Slack)、开发者平台(包括Git/GitHub、用于浏览器自动化的Puppeteer等)和数据库(如PostgreSQL)。
据NetMind.AI的产品负责人Xiangpeng Wan说,如果特定系统还没有服务器,公司可以轻松雇用第三方或内部构建一个。由于MCP是开放标准,任何人都可以制作兼容的服务器,这当然也为付费的商业选项留下了空间。他说,软件供应商可能会为其产品提供官方MCP连接器并提供企业支持。
"这是'购买'MCP集成的一种方式。至于MCP即服务,它开始出现,但在市场上仍相对较早,"Wan说。今年早些时候,Cloudflare和其他公司推出了托管MCP服务器选项,因此开发人员可以一键部署到云端,让最终用户通过OAuth2授予访问权限。"这将MCP转变为托管平台并减少运维负担,"他解释说。
然而,预构建MCP服务器之间质量的巨大差异中潜藏着一个重大问题——首席信息官最好仔细查看他们获得的MCP服务器的质量。
Centric Consulting的合伙人兼AI解决方案总监Joseph Ours说:"支持MCP的组织似乎天生比那些由个人'感觉编码者'构建的更好地工程化。"Joseph Ours是FastMCP的早期贡献者,FastMCP现在是基于Python的MCP服务器的事实标准。
哪些组织支持MCP?许多组织都支持——而且每天都有更多组织采用它们。
据Salesforce的首席开发者倡导者Mohith Shrivastava说,该公司自己的AgentExchange在"类似应用商店"的环境中呈现MCP服务器。任何需要将其AI智能体连接到特定服务的公司都可以"简单地从市场找到并获取现成的MCP服务器,节省大量开发时间和精力,"Shrivastava说。
选项3:分阶段方法
AI咨询实验室的创始人Marcus McGehee说:"当合规性、性能调优或数据主权是业务的关键优先事项时,通常最好内部构建[MCP服务器]。当灵活性、可扩展性和可预测的运营成本比完全定制更重要时,购买托管MCP解决方案是理想的。"
但事实证明,还有第三个选择。这是一种仔细分阶段的方法,帮助在AI和协议演进的持续变化中保护你的决策。
网站设计公司SuperWebPros的创始人兼首席执行官Jesse Flores说:"我们在实践中看到的有效方法是分阶段方法:购买来学习,构建来差异化。"该公司构建智能网站并帮助客户为AI智能体收集信息和在线购买产品做准备。
他建议公司从商业MCP服务器开始建立基准能力并了解实际集成模式;然后在他们识别出"真正竞争护城河"的地方有选择地构建。
"关键指标是验证学习时间。如果你能在90天内用购买的基础设施证明业务价值,你就获得了用实际使用数据支持的信誉来提出构建策略,"Flores补充说。
他不是唯一建议这种或类似策略的人。
"许多组织从购买开始,随着其AI能力的成熟逐渐内化[构建],"Jain说。
Q&A
Q1:模型上下文协议(MCP)是什么?它的作用是什么?
A:模型上下文协议(MCP)是连接AI助手与数据源及外部工具的开放标准。它为AI驱动的工作流程提供额外工具,可以让AI系统与Slack、Google Workspace、AWS账户等进行集成。可以将其视为允许现有系统"插入"到AI中的轻量级方法。
Q2:企业现在应该立即部署MCP服务器吗?
A:专家建议不要急于决策。大多数公司应该首先专注于具体的业务目标,而不是盲目添加AI功能。如果只是简单地将ChatGPT连接到CRM系统,实际上并不需要MCP。只有当你有需要自定义数据集成的实际AI应用程序时,才考虑构建。
Q3:MCP服务器应该自建还是购买?
A:这取决于企业的战略优先级和风险承受能力。内部构建提供完全控制权,但购买提供速度、可靠性和更低的运营负担。专家建议采用分阶段方法:先购买来学习和建立基准能力,然后在识别出真正竞争优势的领域有选择地自建。
好文章,需要你的鼓励
CPU架构讨论常聚焦于不同指令集的竞争,但实际上在单一系统中使用多种CPU架构已成常态。x86、Arm和RISC-V各有优劣,AI技术的兴起更推动了对性能功耗比的极致需求。当前x86仍主导PC和服务器市场,Arm凭借庞大生态系统在移动和嵌入式领域领先,RISC-V作为开源架构展现巨大潜力。未来芯片设计将更多采用异构计算,多种架构协同工作成为趋势。
KAIST AI团队通过深入分析视频生成AI的内部机制,发现了负责交互理解的关键层,并开发出MATRIX框架来专门优化这些层。该技术通过语义定位对齐和语义传播对齐两个组件,显著提升了AI对"谁对谁做了什么"的理解能力,在交互准确性上提升约30%,为AI视频生成的实用化应用奠定了重要基础。
Vast Data与云计算公司CoreWeave签署了价值11.7亿美元的多年期软件许可协议,这标志着AI基础设施存储市场的重要转折点。该协议涵盖Vast Data的通用存储层及高级数据平台服务,将帮助CoreWeave提供更全面的AI服务。业内专家认为,随着AI集群规模不断扩大,存储系统在AI基础设施中的占比可能从目前的1.9%提升至3-5%,未来五年全球AI存储市场规模将达到900亿至2000亿美元。
乔治亚理工学院和微软研究团队提出了NorMuon优化器,通过结合Muon的正交化技术与神经元级自适应学习率,在1.1B参数模型上实现了21.74%的训练效率提升。该方法同时保持了Muon的内存优势,相比Adam节省约50%内存使用量,并开发了高效的FSDP2分布式实现,为大规模AI模型训练提供了实用的优化方案。