生成式人工智能(GenAI)的推进热潮正遭遇瓶颈,据NTT Data亚太区负责人表示,许多概念验证(POC)项目由于基础设施不足和缺乏完善的治理而无法规模化部署。
NTT Data亚太区首席执行官John Lombard在接受Computer Weekly采访时表示,组织要想真正利用GenAI的力量,首先必须解决基础技术债务问题并建立清晰的治理框架。
"当组织开始关注GenAI时,出现了一股POC热潮,"Lombard说道,许多POC项目未能跃升为全面部署,因为组织发现他们必须遵循正确的流程来部署技术,并审视其底层基础设施。
Lombard引用了NTT Data最近的研究,发现90%的组织目前正在评估其现有基础设施,包括网络、存储和安全等,这些都必须在企业能够自信地大规模部署AI应用之前进行现代化改造。
通过整合Dimension Data和其他NTT公司形成的NTT Data,正通过从连接到高级AI应用的产品组合来应对这一挑战。该公司目前在亚太地区拥有15,000名专职员工,所有员工都完成了基础AI认证,重点关注治理和伦理。
从生成式AI到AI智能体
Lombard注意到与客户的对话正从生成式AI转向智能体AI,即自主智能体可以在无需人工干预的情况下执行复杂的多步骤任务。为帮助客户实现这一跨越,NTT Data开发了能够根据用户指令自主执行任务的"智能AI智能体"。
"目前市场上有数百万个RPA(机器人流程自动化)机器人,我们也开发了插件,允许组织将RPA机器人转换为智能体AI机器人,"Lombard表示,这将帮助组织避免因旧技术而产生技术债务。
他还分享了组织已经部署AI智能体的案例,这些应用超越了简单的基于规则的自动化。
在医疗保健领域,一个组织正在使用自主智能体对保险索赔和申诉进行分类和优先级排序,确保最具影响力的案例得到优先处理。"他们的近期路线图主要关注早期干预、医疗合规、付款方验证和防欺诈的专业化,"Lombard说。
在汽车行业,另一个客户正在使用智能体分析监管警告信函和引文。"他们还在开发专业自动化和流程来分析车辆缺陷的根本原因,"他补充道,指出这有可能降低车辆召回的高昂成本。
数据质量决定结果质量
尽管AI潜力巨大,Lombard反复强调将治理置于技术之前的重要性。他警告说,如果没有适当的防护措施,AI系统可能会延续和放大现有偏见。
"这是个老话题,你知道的,垃圾进垃圾出,"他说。"组织用于训练的数据不存在偏见是非常重要的。你不希望出现算法使用已经有缺陷的数据来做决策的情况,比如贷款审批。"
NTT Data的方法是从专注于伦理、监管和合规考虑的咨询服务开始接触客户。"我们建议客户建立非常强大和完善的治理框架,"Lombard说。"在投入技术之前先考虑这些问题确实很重要。"
支撑NTT Data AI努力的是其在该地区核心基础设施方面的投资。该公司是亚太地区第三大数据中心提供商,正在印度、泰国、印度尼西亚和马来西亚扩大容量以支持高需求的AI工作负载。
Lombard还提到了最近投入使用的Mist海底电缆,该电缆连接马来西亚、印度、新加坡和泰国与世界其他地区。这条长达8,100公里的电缆承载超过200太比特每秒的带宽,是"这个地区向更广泛人群开放AI使用的重要连接"。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。