Qualcomm 和诺基亚贝尔实验室展示了多供应商 AI 模型如何在无线网络中实现互操作性协同工作。
诺基亚贝尔实验室研究员 Carl Nuzman 和 Qualcomm 首席工程师 Rachel Wang 在一篇博客文章中表示,他们展示了序列学习的灵活性,这种方法可以促进网络解码器优先或设备编码器优先的训练。
他们表示,Qualcomm 和诺基亚贝尔实验室正在继续合作,以展示互操作的多供应商 AI 在无线网络中的价值。在 2024 年世界移动通信大会上,他们首次展示了 AI 增强型信道状态反馈编码器和解码器模型的空中互操作性。
这些模型分别在搭载 Qualcomm 5G 调制解调器-射频系统的参考移动设备和诺基亚原型基站上运行。这些互操作模型是两家公司使用一种称为序列学习的新技术开发的。现在他们在 2025 年世界移动通信大会上带来了更多内容。
信道状态反馈帮助网络找出向设备发送数据的最佳方式。随着无线条件的变化,从网络到设备的最佳传输方向也会随之改变。Qualcomm 和诺基亚通过 AI 生成精确的波束,使网络变得更智能和高效。
通过序列学习,多家公司可以共同设计互操作的 AI 模型,而无需共享其实现的专有细节。相反,一家公司会与另一家公司共享模型输入/输出对的训练数据集。
在这个概念验证的基础上,两家公司一直在继续合作,以展示信道状态反馈互操作 AI 的价值、灵活性和可扩展性。
不同物理环境下的无线 AI 鲁棒性
AI 可以向您的设备发送正确的无线波束。
随着 AI 技术在实际网络中的部署,确保模型在不同环境中稳健运行变得越来越重要。训练数据集应足够多样化,以便 AI 模型能够有效学习;但是,要覆盖所有可能的场景是不现实的。
因此,AI 模型必须能够将其训练泛化以应对新情况。在合作中,两家公司研究了三个非常不同的小区站点:一个户外郊区位置和两个不同的室内环境。
在第一个场景中,他们比较了使用多样化数据集训练的通用 AI 模型与在特定位置训练的超本地模型的性能。他们发现通用 AI 模型可以在不同环境中工作,性能与超本地模型相当。
后来,两家公司将通用模型改进以包含室内站点 2 的数据(改进的通用模型)。然后他们在室内站点 2 的四个不同位置测量了用户数据吞吐量。在所有情况下,通用模型的性能与改进的通用模型相差不到 1%,显示了通用模型对新场景的鲁棒性。
AI 增强的信道状态反馈允许网络以更精确的波束模式传输,提高接收信号强度,减少干扰,最终提供更高的数据吞吐量。我们通过记录移动用户在小区内不同位置移动时使用 AI 反馈和基于波束网格的反馈 (3GPP Type I) 所经历的数据吞吐量来测量这种改进。
使用 AI 反馈产生了更高的吞吐量,各位置的吞吐量增益范围从 15% 到 95%。在商用系统中使用 AI 增强的信道状态反馈所观察到的吞吐量增益将取决于多个因素。然而,这个概念验证的结果,加上众多仿真研究表明,使用 AI 增强后的吞吐量将始终高于传统方法。
序列学习可以通过两种方式进行,要么是设备编码器优先,要么是网络解码器优先,这对部署和标准化有不同的影响。为了支持 3GPP 对解码器优先方法的日益关注,今年我们用解码器优先模型训练替代了原来的编码器优先演示。
在 2024 年世界移动通信大会展示的编码器优先方法中,Qualcomm 设计了一个编码器模型,生成了输入/输出对的训练数据集,然后与诺基亚共享数据集,后者随后设计了一个互操作解码器。
今年,采用解码器优先方法,诺基亚设计了一个解码器模型,并生成和共享了解码器输入/输出对的训练数据集,供 Qualcomm 用于设计互操作编码器。我们发现两种模式设计的模型性能相差不大,仅有几个百分点的差异。
AI 模型可以提升无线网络的性能。
Qualcomm 和诺基亚贝尔实验室共同展示的原型代表了将 AI 增强通信从概念转变为现实的关键一步。结果表明,通过多种学习模式,用户体验可以得到显著改善,且具有鲁棒性。随着我们学会设计互操作的多供应商 AI 系统,我们可以开始实现增强的容量、改进的可靠性和降低的能耗。
好文章,需要你的鼓励
Inception是一家位于帕洛阿尔托的新公司,由斯坦福大学计算机科学教授Stefano Ermon创立,声称开发了一种基于“扩散”技术的新型AI模型,称为扩散基础的大型语言模型(DLM)。目前备受关注的生成AI模型大致可分为两类:大型语言模型(LLMs)和扩散模型。Inception的模型结合了传统LLMs的功能,如代码生成和问答,但性能显著更快,计算成本更低。
亚马逊正在重塑其旗舰语音助手 Alexa,通过整合 AI 代理、模型混合和浏览器操作能力,打造更智能的 Alexa+。新版本不仅可以主动提供个性化信息,还能理解复杂指令并完成多步骤任务。亚马逊希望通过这种创新方式,让 Alexa 成为更强大、更智能的家庭语音助手。
亚马逊在周三分享了一个令人印象深刻的“代理”未来愿景——在这个未来中,改进后的 Alexa+ 将处理无数日常任务,从预订餐厅到寻找家电维修工。如果亚马逊能够实现这一目标,它可能会成为首个推出全面、以消费者为中心的代理工具的公司。该公司希望将更自然、更具表现力的 Alexa(由生成性 AI 模型驱动)与能够以完全自主、智能的方式接入第一方和第三方应用、服务及平台的能力结合起来。
微软推出了新一代高效 AI 模型 Phi-4,可同时处理文本、图像和语音,且计算资源需求大幅降低。其中 Phi-4-Multimodal 仅有 56 亿参数,Phi-4-Mini 仅有 38 亿参数,性能却超越同等规模竞品,甚至在某些任务上媲美两倍大小的模型。这一突破性进展为开发者提供了先进的 AI 能力,有望推动边缘计算和普及 AI 应用。