Qualcomm 和诺基亚贝尔实验室展示了多供应商 AI 模型如何在无线网络中实现互操作性协同工作。
诺基亚贝尔实验室研究员 Carl Nuzman 和 Qualcomm 首席工程师 Rachel Wang 在一篇博客文章中表示,他们展示了序列学习的灵活性,这种方法可以促进网络解码器优先或设备编码器优先的训练。
他们表示,Qualcomm 和诺基亚贝尔实验室正在继续合作,以展示互操作的多供应商 AI 在无线网络中的价值。在 2024 年世界移动通信大会上,他们首次展示了 AI 增强型信道状态反馈编码器和解码器模型的空中互操作性。
这些模型分别在搭载 Qualcomm 5G 调制解调器-射频系统的参考移动设备和诺基亚原型基站上运行。这些互操作模型是两家公司使用一种称为序列学习的新技术开发的。现在他们在 2025 年世界移动通信大会上带来了更多内容。
信道状态反馈帮助网络找出向设备发送数据的最佳方式。随着无线条件的变化,从网络到设备的最佳传输方向也会随之改变。Qualcomm 和诺基亚通过 AI 生成精确的波束,使网络变得更智能和高效。
通过序列学习,多家公司可以共同设计互操作的 AI 模型,而无需共享其实现的专有细节。相反,一家公司会与另一家公司共享模型输入/输出对的训练数据集。
在这个概念验证的基础上,两家公司一直在继续合作,以展示信道状态反馈互操作 AI 的价值、灵活性和可扩展性。
不同物理环境下的无线 AI 鲁棒性
AI 可以向您的设备发送正确的无线波束。
随着 AI 技术在实际网络中的部署,确保模型在不同环境中稳健运行变得越来越重要。训练数据集应足够多样化,以便 AI 模型能够有效学习;但是,要覆盖所有可能的场景是不现实的。
因此,AI 模型必须能够将其训练泛化以应对新情况。在合作中,两家公司研究了三个非常不同的小区站点:一个户外郊区位置和两个不同的室内环境。
在第一个场景中,他们比较了使用多样化数据集训练的通用 AI 模型与在特定位置训练的超本地模型的性能。他们发现通用 AI 模型可以在不同环境中工作,性能与超本地模型相当。
后来,两家公司将通用模型改进以包含室内站点 2 的数据(改进的通用模型)。然后他们在室内站点 2 的四个不同位置测量了用户数据吞吐量。在所有情况下,通用模型的性能与改进的通用模型相差不到 1%,显示了通用模型对新场景的鲁棒性。
AI 增强的信道状态反馈允许网络以更精确的波束模式传输,提高接收信号强度,减少干扰,最终提供更高的数据吞吐量。我们通过记录移动用户在小区内不同位置移动时使用 AI 反馈和基于波束网格的反馈 (3GPP Type I) 所经历的数据吞吐量来测量这种改进。
使用 AI 反馈产生了更高的吞吐量,各位置的吞吐量增益范围从 15% 到 95%。在商用系统中使用 AI 增强的信道状态反馈所观察到的吞吐量增益将取决于多个因素。然而,这个概念验证的结果,加上众多仿真研究表明,使用 AI 增强后的吞吐量将始终高于传统方法。
序列学习可以通过两种方式进行,要么是设备编码器优先,要么是网络解码器优先,这对部署和标准化有不同的影响。为了支持 3GPP 对解码器优先方法的日益关注,今年我们用解码器优先模型训练替代了原来的编码器优先演示。
在 2024 年世界移动通信大会展示的编码器优先方法中,Qualcomm 设计了一个编码器模型,生成了输入/输出对的训练数据集,然后与诺基亚共享数据集,后者随后设计了一个互操作解码器。
今年,采用解码器优先方法,诺基亚设计了一个解码器模型,并生成和共享了解码器输入/输出对的训练数据集,供 Qualcomm 用于设计互操作编码器。我们发现两种模式设计的模型性能相差不大,仅有几个百分点的差异。
AI 模型可以提升无线网络的性能。
Qualcomm 和诺基亚贝尔实验室共同展示的原型代表了将 AI 增强通信从概念转变为现实的关键一步。结果表明,通过多种学习模式,用户体验可以得到显著改善,且具有鲁棒性。随着我们学会设计互操作的多供应商 AI 系统,我们可以开始实现增强的容量、改进的可靠性和降低的能耗。
好文章,需要你的鼓励
最新研究发现,AI搜索引擎在引用新闻源时存在严重缺陷,不仅会捏造引用,还会减少原发布者的流量。这一问题对新闻业和公众对新闻的信任度有重大影响。研究显示,付费版AI聊天机器人表现比免费版更差,给出的错误答案更加自信。这些AI工具还经常伪造链接或引用文章的重印版本,而不是直接链接到原始来源。研究人员呼吁AI开发者提高透明度和引用准确性。
人工智能正在彻底改变软件开发方式。"氛围编码"是一种新兴的编程方法,它侧重于软件的整体"氛围"而非具体代码。开发者通过概念性指导与AI互动,迭代完善功能。这种方法可能会显著提高开发速度,增加客户端功能,但也带来了一些关于代码理解、测试和质量保证的新挑战。企业需要密切关注并适应这一趋势,以保持竞争力。
OpenAI为ChatGPT用户添加了期待已久的内部知识源引用功能。ChatGPT Team用户现可在测试期间直接连接内部知识库,引入公司特定信息。这项功能将使ChatGPT能够理解公司内部术语,执行语义搜索,直接链接内部资源,并提供最相关、最新的上下文信息,从而更好地回答企业用户的问题。
Google 最新旗舰语言模型 Gemini 2.5 Pro 发布后被其他 AI 热点掩盖。然而,实际测试表明,它在长文本处理、多模态推理和数据分析等方面表现出色,可能是目前最佳的推理模型。其百万级别的上下文窗口、强大的代码能力和详细的推理过程,为企业级应用打开了新的可能性,有望推动 Google 在生成式 AI 竞赛中领先。