由最新人工智能 ( AI ) 及其技术生态系统的需求驱动,尤其随着 AI 驱动的数据中心的激增发展,网络基础设施不断需要适应诸多外部压力以及对现有全球光学架构前所未有的考验。根据 Omdia 的一份研究报告,为了持续推动全球 AI 经济的增长,光网络必须发生显著演进,提供更强大的能力。
该研究成果在斯德哥尔摩召开的 Innovative Optical and Wireless Network Global Forum ( IOWN Global Forum ) 会议上展示,重点介绍了其成员为交付未来所必需网络所做的努力,因越来越多的消费者、企业和政府采用和使用更多 AI 应用。
由全球科技巨头与通信运营商 NTT 发起的 IOWN 项目,旨在满足未来超连接商业世界不断增长的需求,打造一套能够利用基于光子技术、即全光子网络 ( APN ) 提供超高速、高容量互联网服务的未来全球通信基础设施。
在这一使命的推进中,NTT 得到 Ericsson、Nokia、Sony、Ciena、Intel、Nvidia、Microsoft、Orange、Telefónica 与 Google 等公司的支持。
该项目旨在应对数据需求几近呈指数级上升以及由于未来应用(尤其是 AI 和大语言模型应用案例)所需巨大计算能力而引发的能耗同步增长问题。这一网络与信息处理基础设施包括利用专注于光学技术的终端设备,实现高速、高容量通信,同时提供大规模计算能力。
会议伊始,瑞典国际发展与对外贸易大臣国务秘书 Hakan Jevrell 告知与会代表,随着新一代数字化形态逐步成型,企业不仅面临组织结构日趋复杂的挑战,也须应对近期美国关税公告及其他地缘政治危机带来的不确定性,从而使得开发能够助力企业迎接未来、保持竞争力的系统和服务显得更为重要。
这些挑战在 Omdia 的研究报告《全光子网络助力下一代数字经济》中得到了体现。该报告预测,从 2024 年到 2027 年,以吉瓦特计量的全球数据中心总容量——分析师称之为 AI 能力的关键支撑基础设施——将增长 57%。
Omdia 表示,这一趋势提出了多项未来网络基础设施的需求,包括:在严格的资本开支目标下为应对激增的容量需求提供更大带宽;为满足各领域先进应用和服务需求实现更低延迟;为达成可持续性目标以及降低能耗成本,实现每比特能耗下降;提供类似云服务的灵活性以匹配带宽供应与服务利用;以及增加网络的鲁棒性和安全性,以确保能够抵御自然和人为因素引起的中断。
分析师补充道,为实现这些目标,下一代光网络必须跟上向新 AI 数据中心站点扩展光纤的步伐,同时需具备扩展网络微毛细性(利用短程无线接入技术为物品和设备提供本地连接)及更高的整体容量。Omdia 认为 IOWN 全光子网络在应对这些挑战中将发挥关键作用。
分析师指出,全光子网络给各界带来诸多益处——无论是个人、工业界还是国际市场;并且该网络将基于在光学技术方面的突破,提供更远的系统传输距离、更低成本、更高效的光切换技术,以及在标准化社区支持下实现的多层次与供应商管理优化。对于企业来说,尤其是那些寻求在 AI 和云计算应用中获得更高安全性、灵活性以及投资回报的公司,全光子网络将带来实质性好处。
Omdia 运输网络与组件研究总监 Ian Redpath 表示: “消费者、企业和政府都对全光子网络的发展抱有期待,因为它将支持他们在多个领域的应用需求。全光子网络将不断扩展,支持更多带宽、延伸至更多边缘,并以最低延迟提供高度响应的服务。通过一个开放的 APN,更多利益相关者可以利用来自不同服务提供商的创新,实现更优的体验和解决方案。”
IOWN Global Forum 总裁兼主席 Katsuhiko Kawazoe 对 Omdia 报告的研究成果表示欢迎,并表示: “IOWN Global Forum 的目标是实现一个新数字经济下人人都能生活得更智能、更繁荣的幸福世界。下一代信息与通信基础设施将借助光速技术,助力创造一个对所有人都更为可持续和安全的未来。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。