CloudBees首席执行官Anuj Kapur在接受采访时表示,人工智能可能会重新检验DevOps整体的基础假设,但他警告不要为了追求更高效率而冒着创建黑盒化代码的风险。他还指出,一些因担心错失机会而匆忙采用AI生成代码的客户,现在开始放慢脚步,采取更加谨慎的态度。
CloudBees成立于2010年,长期以来一直与Jenkins自动化服务器密切相关。2022年,来自思科和SAP的资深人士Anuj Kapur接替CloudBees联合创始人Sacha Labourey担任总裁兼首席执行官,这发生在生成式AI革命席卷科技行业之前不久。
多年来,该公司一直保持着相关性,最近转向了DevOps中的生成式AI领域。今年6月,公司推出了CloudBees Unify模型上下文协议(MCP)服务器的早期访问版本,作为其Unify DevOps工具与不断扩展的大语言模型代理生态系统之间的桥梁。
"这很令人兴奋,"Kapur轻描淡写地说。"我们所做的转变,在某种程度上,反映了客户希望我们做的事情以及问题陈述。"
CloudBees跟随科技行业的大多数公司一样,跳上了AI列车。在2024年初,Labourey在接受The Register采访时预测,AI将"在平台上占据相当重要的地位"。
Kapur在本周的采访中呼应了这些评论,但带有一些商业现实的色彩。是的,客户对生产力可能性非常兴奋,但一些客户意识到这些可能性需要通过经验来调节。毕竟,快速移动是很好的,但当太多东西被破坏时会发生什么?
"我们实际上即将将整整一代软件外包给提示工程,并有效地创建一个代码黑盒,这些代码不是由人类生成的,"Kapur说,"而是基于基础模型,从效率角度来看可能很棒,但这引出了一个问题:这种数量和速度对后端输出质量的下游影响是什么?当这些事情确实发生时,我们实际诊断故障根本原因的能力如何?因为那些代码会失败。"
Kapur称机器生成代码的黑盒影响"深远"。
"质量如何?"他问道。"测试覆盖率如何?可恢复性如何?与之相关的漏洞是什么?生成的代码只有输入的提示那么好,在某些情况下,这些提示主要由人类输入。所以在某些方面,我们正处于需要对拥抱AI的速度以及管道中需要发生的下游检查和平衡进行深思熟虑的时刻,以确保生成的代码能够产生适当的结果。"
他补充说,引用支付巨头Stripe的Collison兄弟的话:"你应该关注趋势的二阶影响,而不是一阶影响。对我们来说,这意味着我们需要专注于测试,因为我们感到在当前一代中,测试覆盖率相当有限。"当然,使用AI工具,代码的数量和速度可能会增加10倍,但Kapur观察到,"那些下游影响会发生什么?"
Kapur还表示,许多客户最初都有错失恐惧症,担心不跳上潮流可能会让更前沿的竞争对手获得优势,但正在克服这种情况。"我想说这种恐惧已经消退,"他告诉我们。"这使他们对需要推进这一趋势的速度以及需要创建的保障措施更加深思熟虑。"
Kapur说,这可能意味着公司在疯狂冲向使用AI输出代码后会暂停一下。"我认为我们正处于你将看到一些公开退缩的时刻。"
除非采用更保守和谨慎的方法。"我们的客户,"他说,"特别是那些有监管负担或声誉负担的客户……我认为这些客户会思考这个问题。他们会考虑走得太快的负面影响。我认为这迫使客户在真正能够采用的东西方面保持一定程度的保守主义。客户已经从过去基本上走得太快并冲入死角的循环中吸取了教训。"
好文章,需要你的鼓励
惠普企业(HPE)发布搭载英伟达Blackwell架构GPU的新服务器,抢占AI技术需求激增市场。IDC预测,搭载GPU的服务器年增长率将达46.7%,占总市场价值近50%。2025年服务器市场预计增长39.9%至2839亿美元。英伟达向微软等大型云服务商大量供应Blackwell GPU,每周部署约7.2万块,可能影响HPE服务器交付时间。HPE在全球服务器市场占13%份额。受美国出口限制影响,国际客户可能面临额外限制。新服务器将于2025年9月2日开始全球发货。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
安全专业协会ISACA面向全球近20万名认证安全专业人员推出AI安全管理高级认证(AAISM)。研究显示61%的安全专业人员担心生成式AI被威胁行为者利用。该认证涵盖AI治理与项目管理、风险管理、技术与控制三个领域,帮助网络安全专业人员掌握AI安全实施、政策制定和风险管控。申请者需持有CISM或CISSP认证。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。