CloudBees首席执行官Anuj Kapur在接受采访时表示,人工智能可能会重新检验DevOps整体的基础假设,但他警告不要为了追求更高效率而冒着创建黑盒化代码的风险。他还指出,一些因担心错失机会而匆忙采用AI生成代码的客户,现在开始放慢脚步,采取更加谨慎的态度。
CloudBees成立于2010年,长期以来一直与Jenkins自动化服务器密切相关。2022年,来自思科和SAP的资深人士Anuj Kapur接替CloudBees联合创始人Sacha Labourey担任总裁兼首席执行官,这发生在生成式AI革命席卷科技行业之前不久。
多年来,该公司一直保持着相关性,最近转向了DevOps中的生成式AI领域。今年6月,公司推出了CloudBees Unify模型上下文协议(MCP)服务器的早期访问版本,作为其Unify DevOps工具与不断扩展的大语言模型代理生态系统之间的桥梁。
"这很令人兴奋,"Kapur轻描淡写地说。"我们所做的转变,在某种程度上,反映了客户希望我们做的事情以及问题陈述。"
CloudBees跟随科技行业的大多数公司一样,跳上了AI列车。在2024年初,Labourey在接受The Register采访时预测,AI将"在平台上占据相当重要的地位"。
Kapur在本周的采访中呼应了这些评论,但带有一些商业现实的色彩。是的,客户对生产力可能性非常兴奋,但一些客户意识到这些可能性需要通过经验来调节。毕竟,快速移动是很好的,但当太多东西被破坏时会发生什么?
"我们实际上即将将整整一代软件外包给提示工程,并有效地创建一个代码黑盒,这些代码不是由人类生成的,"Kapur说,"而是基于基础模型,从效率角度来看可能很棒,但这引出了一个问题:这种数量和速度对后端输出质量的下游影响是什么?当这些事情确实发生时,我们实际诊断故障根本原因的能力如何?因为那些代码会失败。"
Kapur称机器生成代码的黑盒影响"深远"。
"质量如何?"他问道。"测试覆盖率如何?可恢复性如何?与之相关的漏洞是什么?生成的代码只有输入的提示那么好,在某些情况下,这些提示主要由人类输入。所以在某些方面,我们正处于需要对拥抱AI的速度以及管道中需要发生的下游检查和平衡进行深思熟虑的时刻,以确保生成的代码能够产生适当的结果。"
他补充说,引用支付巨头Stripe的Collison兄弟的话:"你应该关注趋势的二阶影响,而不是一阶影响。对我们来说,这意味着我们需要专注于测试,因为我们感到在当前一代中,测试覆盖率相当有限。"当然,使用AI工具,代码的数量和速度可能会增加10倍,但Kapur观察到,"那些下游影响会发生什么?"
Kapur还表示,许多客户最初都有错失恐惧症,担心不跳上潮流可能会让更前沿的竞争对手获得优势,但正在克服这种情况。"我想说这种恐惧已经消退,"他告诉我们。"这使他们对需要推进这一趋势的速度以及需要创建的保障措施更加深思熟虑。"
Kapur说,这可能意味着公司在疯狂冲向使用AI输出代码后会暂停一下。"我认为我们正处于你将看到一些公开退缩的时刻。"
除非采用更保守和谨慎的方法。"我们的客户,"他说,"特别是那些有监管负担或声誉负担的客户……我认为这些客户会思考这个问题。他们会考虑走得太快的负面影响。我认为这迫使客户在真正能够采用的东西方面保持一定程度的保守主义。客户已经从过去基本上走得太快并冲入死角的循环中吸取了教训。"
好文章,需要你的鼓励
CoreWeave发布AI对象存储服务,采用本地对象传输加速器(LOTA)技术,可在全球范围内高速传输对象数据,无出口费用或请求交易分层费用。该技术通过智能代理在每个GPU节点上加速数据传输,提供高达每GPU 7 GBps的吞吐量,可扩展至数十万个GPU。服务采用三层自动定价模式,为客户的AI工作负载降低超过75%的存储成本。
IDEA研究院等机构联合开发了ToG-3智能推理系统,通过多智能体协作和双重进化机制,让AI能像人类专家团队一样动态思考和学习。该系统在复杂推理任务上表现优异,能用较小模型达到卓越性能,为AI技术的普及应用开辟了新路径,在教育、医疗、商业决策等领域具有广阔应用前景。
谷歌DeepMind与核聚变初创公司CFS合作,运用先进AI模型帮助管理和改进即将发布的Sparc反应堆。DeepMind开发了名为Torax的专用软件来模拟等离子体,结合强化学习等AI技术寻找最佳核聚变控制方式。核聚变被视为清洁能源的圣杯,可提供几乎无限的零碳排放能源。谷歌已投资CFS并承诺购买其200兆瓦电力。
上海人工智能实验室提出SPARK框架,创新性地让AI模型在学习推理的同时学会自我评判,通过回收训练数据建立策略与奖励的协同进化机制。实验显示,该方法在数学推理、奖励评判和通用能力上分别提升9.7%、12.1%和1.5%,且训练成本仅为传统方法的一半,展现出强大的泛化能力和自我反思能力。