生成式人工智能(GenAI)的推进热潮正遭遇瓶颈,据NTT Data亚太区负责人表示,许多概念验证(POC)项目由于基础设施不足和缺乏完善的治理而无法规模化部署。
NTT Data亚太区首席执行官John Lombard在接受Computer Weekly采访时表示,组织要想真正利用GenAI的力量,首先必须解决基础技术债务问题并建立清晰的治理框架。
"当组织开始关注GenAI时,出现了一股POC热潮,"Lombard说道,许多POC项目未能跃升为全面部署,因为组织发现他们必须遵循正确的流程来部署技术,并审视其底层基础设施。
Lombard引用了NTT Data最近的研究,发现90%的组织目前正在评估其现有基础设施,包括网络、存储和安全等,这些都必须在企业能够自信地大规模部署AI应用之前进行现代化改造。
通过整合Dimension Data和其他NTT公司形成的NTT Data,正通过从连接到高级AI应用的产品组合来应对这一挑战。该公司目前在亚太地区拥有15,000名专职员工,所有员工都完成了基础AI认证,重点关注治理和伦理。
从生成式AI到AI智能体
Lombard注意到与客户的对话正从生成式AI转向智能体AI,即自主智能体可以在无需人工干预的情况下执行复杂的多步骤任务。为帮助客户实现这一跨越,NTT Data开发了能够根据用户指令自主执行任务的"智能AI智能体"。
"目前市场上有数百万个RPA(机器人流程自动化)机器人,我们也开发了插件,允许组织将RPA机器人转换为智能体AI机器人,"Lombard表示,这将帮助组织避免因旧技术而产生技术债务。
他还分享了组织已经部署AI智能体的案例,这些应用超越了简单的基于规则的自动化。
在医疗保健领域,一个组织正在使用自主智能体对保险索赔和申诉进行分类和优先级排序,确保最具影响力的案例得到优先处理。"他们的近期路线图主要关注早期干预、医疗合规、付款方验证和防欺诈的专业化,"Lombard说。
在汽车行业,另一个客户正在使用智能体分析监管警告信函和引文。"他们还在开发专业自动化和流程来分析车辆缺陷的根本原因,"他补充道,指出这有可能降低车辆召回的高昂成本。
数据质量决定结果质量
尽管AI潜力巨大,Lombard反复强调将治理置于技术之前的重要性。他警告说,如果没有适当的防护措施,AI系统可能会延续和放大现有偏见。
"这是个老话题,你知道的,垃圾进垃圾出,"他说。"组织用于训练的数据不存在偏见是非常重要的。你不希望出现算法使用已经有缺陷的数据来做决策的情况,比如贷款审批。"
NTT Data的方法是从专注于伦理、监管和合规考虑的咨询服务开始接触客户。"我们建议客户建立非常强大和完善的治理框架,"Lombard说。"在投入技术之前先考虑这些问题确实很重要。"
支撑NTT Data AI努力的是其在该地区核心基础设施方面的投资。该公司是亚太地区第三大数据中心提供商,正在印度、泰国、印度尼西亚和马来西亚扩大容量以支持高需求的AI工作负载。
Lombard还提到了最近投入使用的Mist海底电缆,该电缆连接马来西亚、印度、新加坡和泰国与世界其他地区。这条长达8,100公里的电缆承载超过200太比特每秒的带宽,是"这个地区向更广泛人群开放AI使用的重要连接"。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。