未来治理论坛呼吁制定新蓝图以现代化和数字化地方政府,包括制定全行业劳动力计划、降低创新风险、提供有针对性的资金支持以及创建更好的市场环境。
未来治理论坛 (FGF) 的一份报告呼吁制定一项协调一致的计划来推进地方数字政府建设,通过协作方式将整个行业联合起来。
该报告是论坛与 Public Digital 合作编写,经过八个月与地方政府领导人的交流后完成的,报告审视了地方数字政府领域的挑战和机遇。报告强调需要制定一份"地方政府现代化蓝图",这应由行业本身协作开发。
报告指出:"这是一个号召,旨在团结整个行业,确立新的发展方向,并强化地方政府数字化建设的愿景,专注于提供现代化、面向21世纪、世界领先的公共服务。"
报告指出了"缺失的中间层"——即地方政府创新、数据和技术系统中的差距。报告称,这一差距"导致了大量的碎片化、工作重复以及对'谁应该做什么'的混淆"。但最重要的是,存在着"一个阻碍行业有效相互学习并以我们所需速度解决共同问题的缺口"。
为解决这一问题,报告提出了60项建议,包括制定全行业的劳动力计划,以解决数字技能和多样性问题;为数字人才创建结构化晋升路径,使其能够进入通常不由数字角色担任的领导职位,如首席执行官;以及改善基础设施和激励机制。
目标是通过集体采购、沙盒测试和共享采购框架来降低创新风险并塑造市场环境。报告补充说,当前的软件市场是"有缺陷的",关键系统通常由少数大型供应商主导,将议会锁定在无法与其他系统集成的合同中,同时排除了更多样化的供应商参与。
谁应负责?
报告指出,目前尚不清楚谁应该做什么,也没有激励机制推动各方围绕共同挑战展开合作。
"一方面,我们听说地方政府行业天然碎片化,导致高度重复工作,经常出现320个议会重复相同的流程、采购或设计,耗费宝贵资源的情况,"报告指出。
报告补充说,地方政府若能集体行动,将拥有更大的力量影响中央政府并共享、连接数据。
"同样,我们也听说难以集体发挥行业的力量,无论是在如何利用数字技术解决普遍性挑战,还是在与私营部门合作时发挥集体力量方面。结果,尽管技术在我们生活中的重要性日益增长,数字化应用仍然未被充分利用或真正理解。"
地方政府的资金问题也很突出,议会比以往任何时候都更加资金紧张。根据报告,2023年,八个议会获准将议会税提高至"法定最高限额以上,30个议会获得了'特殊财政援助'以平衡其2025-26年度预算"。
报告称:"虽然政府早期承诺提供多年度财政拨款并放弃竞争性资金流的做法备受欢迎,但地方政府持续的财政危机仍然是推进长期思考和服务设计创新的重大障碍。"
数字技能及其获取也是一个问题。在各级数字角色中缺乏代表性、进入行业的途径有限以及地方政府间人才地理分布不均衡都是挑战。
报告建议收集数字岗位员工的多样性数据,以构建数字劳动力多样性的完整图景并监测进展,同时创建新的学徒计划,支持那些希望发展技能并转向数字角色的人员。
报告还希望解决地方政府缺乏标准的问题,这导致议会服务体验参差不齐且碎片化,建议有可能为所有议会及其服务制定强制性数字服务标准。
报告对2030年的愿景是建立一套"已确立且值得信赖的服务标准和模式,被70%的议会使用和采纳,对积极遵守这些标准的议会提供奖励和激励,并建立合适的审计机制来评估合规水平"。这些标准将由地方政府不同部门的代表共同设计。
FGF认为,成功的方法是由地方政府开发并拥有地方数字政府基础设施,并由一个"轻触式"机构作为协调机构代表地方政府将其整合起来。
这将包括若干区域性"服务创新中心",这些中心将专注于区域特定解决方案,同时作为开发基于证据的解决方案的沙盒,解决地方政府共同面临的挑战。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。