CloudBees首席执行官Anuj Kapur在接受采访时表示,人工智能可能会重新检验DevOps整体的基础假设,但他警告不要为了追求更高效率而冒着创建黑盒化代码的风险。他还指出,一些因担心错失机会而匆忙采用AI生成代码的客户,现在开始放慢脚步,采取更加谨慎的态度。
CloudBees成立于2010年,长期以来一直与Jenkins自动化服务器密切相关。2022年,来自思科和SAP的资深人士Anuj Kapur接替CloudBees联合创始人Sacha Labourey担任总裁兼首席执行官,这发生在生成式AI革命席卷科技行业之前不久。
多年来,该公司一直保持着相关性,最近转向了DevOps中的生成式AI领域。今年6月,公司推出了CloudBees Unify模型上下文协议(MCP)服务器的早期访问版本,作为其Unify DevOps工具与不断扩展的大语言模型代理生态系统之间的桥梁。
"这很令人兴奋,"Kapur轻描淡写地说。"我们所做的转变,在某种程度上,反映了客户希望我们做的事情以及问题陈述。"
CloudBees跟随科技行业的大多数公司一样,跳上了AI列车。在2024年初,Labourey在接受The Register采访时预测,AI将"在平台上占据相当重要的地位"。
Kapur在本周的采访中呼应了这些评论,但带有一些商业现实的色彩。是的,客户对生产力可能性非常兴奋,但一些客户意识到这些可能性需要通过经验来调节。毕竟,快速移动是很好的,但当太多东西被破坏时会发生什么?
"我们实际上即将将整整一代软件外包给提示工程,并有效地创建一个代码黑盒,这些代码不是由人类生成的,"Kapur说,"而是基于基础模型,从效率角度来看可能很棒,但这引出了一个问题:这种数量和速度对后端输出质量的下游影响是什么?当这些事情确实发生时,我们实际诊断故障根本原因的能力如何?因为那些代码会失败。"
Kapur称机器生成代码的黑盒影响"深远"。
"质量如何?"他问道。"测试覆盖率如何?可恢复性如何?与之相关的漏洞是什么?生成的代码只有输入的提示那么好,在某些情况下,这些提示主要由人类输入。所以在某些方面,我们正处于需要对拥抱AI的速度以及管道中需要发生的下游检查和平衡进行深思熟虑的时刻,以确保生成的代码能够产生适当的结果。"
他补充说,引用支付巨头Stripe的Collison兄弟的话:"你应该关注趋势的二阶影响,而不是一阶影响。对我们来说,这意味着我们需要专注于测试,因为我们感到在当前一代中,测试覆盖率相当有限。"当然,使用AI工具,代码的数量和速度可能会增加10倍,但Kapur观察到,"那些下游影响会发生什么?"
Kapur还表示,许多客户最初都有错失恐惧症,担心不跳上潮流可能会让更前沿的竞争对手获得优势,但正在克服这种情况。"我想说这种恐惧已经消退,"他告诉我们。"这使他们对需要推进这一趋势的速度以及需要创建的保障措施更加深思熟虑。"
Kapur说,这可能意味着公司在疯狂冲向使用AI输出代码后会暂停一下。"我认为我们正处于你将看到一些公开退缩的时刻。"
除非采用更保守和谨慎的方法。"我们的客户,"他说,"特别是那些有监管负担或声誉负担的客户……我认为这些客户会思考这个问题。他们会考虑走得太快的负面影响。我认为这迫使客户在真正能够采用的东西方面保持一定程度的保守主义。客户已经从过去基本上走得太快并冲入死角的循环中吸取了教训。"
好文章,需要你的鼓励
苏州大学研究团队提出"语境降噪训练"新方法,通过"综合梯度分数"识别长文本中的关键信息,在训练时强化重要内容、抑制干扰噪音。该技术让80亿参数的开源模型在长文本任务上达到GPT-4o水平,训练效率比传统方法高出40多倍。研究解决了AI处理长文档时容易被无关信息干扰的核心问题,为文档分析、法律研究等应用提供重要突破。
在Cloudera的“价值观”中,企业智能化的根基可以被概括为两个字:“源”与“治”——让数据有源,智能可治。
清华大学团队首次揭示了困扰AI训练领域超过两年的"幽灵故障"根本原因:Flash Attention在BF16精度下训练时会因数字舍入偏差与低秩矩阵结构的交互作用导致训练崩溃。研究团队通过深入分析发现问题源于注意力权重为1时的系统性舍入误差累积,并提出了动态最大值调整的解决方案,成功稳定了训练过程。这项研究不仅解决了实际工程问题,更为分析类似数值稳定性挑战提供了重要方法论。