人工智能(AI)正在全球范围内推动一场技术革命,而沙特阿拉伯则凭借其“2030愿景”计划走在时代的前列。为了从石油经济转型为创新与知识驱动的新经济形态,沙特阿拉伯正在运用AI技术实现公共部门服务一体化。在此过程中,AI不仅是提高效率的工具,更是国内广泛数字化转型战略的核心所在。赫尔特国际商学院的Ahlam Alduhaish为此专门发表和份研究文章,探讨了世界各地公共服务领导者在运用AI技术以提高效率方面的经验和教训。
推动AI落地,为何如此重要
沙特阿拉伯的“2030愿景”为技术推动下的经济多元化与公共部门改善前景奠定了基础。而AI技术的应用,则在这一转变当中发挥着至关重要的作用。因此,公共部门组织将越来越多地整合AI技术以简化运营、增强决策能力并改善服务交付。单在2021年,AI技术就为沙特阿拉伯带来了40亿至53亿美元之间的经济贡献估值,通过AI驱动的公共服务则预计高达106亿美元。可尽管前途一片光明,但各公共部门采用AI科技的历程却颇为复杂、进度也参差不齐。
理解AI应用及相关挑战
Ahlam的研究确定了影响AI成熟度的两大核心要素。其一是组织的变革准备水平,这反映的是组织对于技术变革的接纳和筹备程度。其二则是动态能力(DC),指的是有效适应并整合AI技术的能力。这两项要素决定了组织能否成功从初步AI认知转向全面的、变革性AI整合形态。
组织准备水平:AI成功的基础
组织准备水平(ORC)是AI应用中的一项关键预测因素。这项水平越高,则政府实体就越有能力在其运营当中整合AI技术。在研究当中,Ahlam对AI规划的清晰度、跨部门协作表现以及组织实施技术解决方案的能力来得出明确量化的准备水平数字。
更高的准备水平不仅能够加快AI应用,还可以确保AI项目带来具有现实意义的长期成果。因此,公共部门领导者必须投资以建立起一种支持变革的文化,具体包括制定明确的AI战略、鼓励IT和运营团队间协作,并培养出有助于推动转型的AI技能。
动态能力:AI集成的催化剂
动态能力包括组织用来发现机会、从AI实施中学习以及运用自身资源以适应快节奏AI技术世界的工具。Ahlam在研究中发现,即使最初的变革准备水平较低,只要具备强大的动态能力,组织仍然能够实现很高的AI成熟度。对于公共部门领导者来说,这项工作的重点应该是通过投资持续学习并建立起灵活、适应性强的流程以培养相关能力,从而快速部署AI方案。
组织规模:一把双刃剑
组织的规模也会影响其采用AI的能力。大型组织往往受到官僚结构以及缓慢决策过程的影响而面临更多限制。相比之下,小型组织往往更为敏捷,但可能也缺乏实施大规模AI计划所需要的资源储备。
对于大型政府部门的领导者来说,关键在于意识到简化决策及培养敏捷文化的重要意义。这可能要求我们打破各部门之间的孤岛,同时建立跨职能团队来处理AI项目。另一方面,小型组织则应专注于构建强大的AI基础设施并投资于人才培养,进而保障长期成功。
公共部门领导者的实践策略
为了克服这些挑战,公共部门领导者必须专注于以下几条实践策略:
未来之路:AI科技与沙特阿拉伯公共部门的新形态
随着沙特阿拉伯继续朝着2030愿景目标迈进,Ahlam的研究结论也已非常明确:AI方案的应用不仅仅在于技术部署,更多是要做好迎接变革的准备以及适应新形势的灵活性。
在全球范围内,其他国家也可以从沙特阿拉伯的实践探索中汲取宝贵的经验教训。AI应用带来的挑战并非沙特阿拉伯所独有,该国正在实施的战略也可以作为其他希望运用AI科技、实现公共服务转型的国家的重要参考和草拟路线图。世界各国政府必须专注于促进创新、培养领导力并建立起动态能力,才有希望充分发挥AI技术的潜力。
Ahlam的研究也为公共部门以外的高管提供了建议:AI方案的落地需要的不仅仅是技术,更要求在组织文化、预先准备和领导策略等层面掀起根本性的转变。随着AI自身的持续演进,组织部门也必须及时跟进、尽一切努力把握住这股变革性的力量。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。