私有5G网络专业公司Celona宣布推出并即时提供AerFlex服务,这是业界首个云控制的、仅需接入点(AP)的私有5G平台。
该公司指出,随着人工智能驱动的运营在各工业领域获得发展势头,对可靠、高性能无线连接的需求正在加速增长。在炼油厂、制造工厂、仓库和采矿作业等传统Wi-Fi往往不足以满足需求的环境中,私有5G正快速成为首选服务。
AerFlex专为简化和加速企业采用而构建,拥有突破性架构和云原生设计,Celona认为其是"工业人工智能的理想基础"。该平台能够消除对现场服务器和复杂集成的需求,使高性能、安全无线网络的部署变得更加容易且更具成本效益。
AerFlex具备简单性、速度和安全性等关键特性,在完全集成的平台中为企业连接设定了新标准,实现更快的部署、更低的总拥有成本和无与伦比的运营敏捷性。
Celona相信,这将使各种规模的企业都能使用私有5G来释放工业智能的全部潜力,推动先进自动化、实时决策制定和新兴物理人工智能应用场景。
与传统电信服务为企业使用改造复杂基础设施,或需要多供应商集成的分散小基站系统不同,Celona AerFlex引入了根本不同的方法。
通过在Celona接入点和云端之间分离网络功能,并使用据称是业界唯一的统一私有5G操作系统,AerFlex能够在无线电、核心网络和人工智能管理之间提供无缝集成。此外,AerFlex还能实现快速、成本效益高的部署,通常在几小时而非几周内完成。
Omdia首席分析师Pablo Tomasi评论这一新产品的市场差异化和能力时表示:"随着企业在边缘加速工业人工智能,他们需要结合简单性、敏捷性和控制性的私有5G解决方案。Celona AerFlex凭借其仅需AP模式和云原生架构脱颖而出,在提供安全、低延迟性能的同时消除了传统部署复杂性。其集成设计使其独特地满足现代企业网络的战略需求。"
Celona首席执行官兼联合创始人Rajeev Shah表示:"Celona AerFlex标志着在使私有5G对各种规模企业真正易于获取和操作高效方面的重大飞跃。通过将创新与根本简化相结合,我们正在消除私有5G采用的传统障碍,使更多组织能够在人工智能正在转变每个行业的时代利用其性能、可靠性和安全性。"
Celona已经有了AerFlex的试用客户,即全球食品、农业、金融和工业产品及服务领域的领导者嘉吉公司。该公司的既定使命是"采购、制造和交付对生活至关重要的商品"。
嘉吉向制造商、农民和牧场主、食品服务客户、零售商和消费者销售食品产品和原料、农业服务和生物基工业产品。拥有160年经验的嘉吉在70个国家拥有约160,000名员工。
Q&A
Q1:AerFlex是什么产品?有什么特殊之处?
A:AerFlex是由Celona公司推出的业界首个云控制的、仅需接入点的私有5G平台。它采用突破性架构和云原生设计,能够消除对现场服务器和复杂集成的需求,使私有5G网络部署变得更加简单和成本效益高。
Q2:AerFlex相比传统解决方案有什么优势?
A:与传统电信服务改造复杂基础设施或分散小基站系统不同,AerFlex通过在接入点和云端之间分离网络功能,使用统一私有5G操作系统,提供无缝集成。能实现快速部署,通常在几小时而非几周内完成,具有更低总拥有成本。
Q3:哪些企业适合使用AerFlex私有5G平台?
A:AerFlex专为各种规模企业设计,特别适合炼油厂、制造工厂、仓库和采矿作业等工业环境,这些环境中传统Wi-Fi往往无法满足需求。该平台是工业人工智能的理想基础,能推动先进自动化、实时决策和物理AI应用场景。
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。