云计算公司Akamai周二宣布,计划在全球超过4000个站点部署"数千台"Nvidia Blackwell GPU、DPU和服务器,以增强其AI推理能力。
该公司表示,分布式AI基础设施将有助于减少延迟,并在推理需求持续增长的背景下提升其全球运营的整体性能。创建统一平台将增强AI研究开发、微调和推理能力。
此消息紧随Akamai最近扩展AI推理和计算能力的努力。10月份,该公司发布了Akamai推理云服务,承诺将AI推理能力更贴近用户和设备。
Akamai云技术集团首席运营官兼总经理Adam Karon在声明中表示:"在超大规模云服务商继续推动AI训练边界的同时,Akamai专注于满足推理时代的独特需求。通过在我们的全球网络中分布推理优化的计算资源,Akamai不仅仅是增加容量,我们正在提供将AI从实验室带到街角所需的规模化、低延迟解决方案。"
Akamai表示,与超大规模云基础设施相比,该分布式平台可将延迟减少2.5倍,为企业节省高达86%的AI推理成本。这种分布式架构将使AI能够与现实世界系统交互,如自动配送系统、智能电网和外科手术机器人,而不受传统云服务地理位置或成本限制的约束。
竞争格局
主要竞争对手Cloudflare使用跨越200多个城市的无服务器推理平台。Cloudflare的Workers AI在无需专用GPU集群的情况下提供低于100毫秒的全球推理服务。另一个竞争对手Fastly使用边缘平台,在可编程计算方面表现出色,使用较少的本地化接入点来处理CPU/GPU任务。
尽管Akamai面临灵活的竞争对手,但该公司押注大规模GPU部署将加速关键任务场景的边缘原生AI,并将依靠其地理规模优势。
Akamai的这一宣布也标志着Nvidia在市场向推理用例转变过程中的重大胜利。在推理方面,Nvidia正面临更多芯片竞争。
MarketsandMarkets的报告显示,AI推理市场预计到2030年将增长至近2550亿美元,复合年增长率为19.2%。
向分布式推理的转变
AI的爆炸式增长暴露了超大规模云服务商中心化模式(如AWS、Azure、Google Cloud)的局限性,这些大规模集中式数据中心在训练方面表现出色,但在实时、低延迟推理方面存在困难。推理——运行训练好的模型进行预测——需要靠近用户和设备以确保响应性、最小化数据传输成本,并支持数十亿边缘交互的可扩展性。
到2026年,这一宣布强调推理时代属于分布式架构。Akamai的大胆GPU部署可能会加速关键任务实时用例的边缘原生AI采用。竞赛已经开始:谁能最好地连接集中式训练与无处不在的边缘执行,将定义AI基础设施的下一个阶段。
Q&A
Q1:Akamai的分布式AI推理基础设施有什么优势?
A:Akamai的分布式平台可将延迟减少2.5倍,为企业节省高达86%的AI推理成本。通过在全球超过4000个站点分布推理优化的计算资源,能够使AI与自动配送系统、智能电网和外科手术机器人等现实世界系统交互,不受传统云服务地理位置或成本限制。
Q2:AI推理市场的发展前景如何?
A:根据MarketsandMarkets的报告,AI推理市场预计到2030年将增长至近2550亿美元,复合年增长率为19.2%。推理时代正在到来,需要更加靠近用户和设备的分布式架构来满足实时、低延迟的需求。
Q3:Akamai与竞争对手相比有什么特点?
A:与主要竞争对手相比,Cloudflare使用跨越200多个城市的无服务器推理平台,Fastly使用较少本地化接入点处理CPU/GPU任务。而Akamai依靠其地理规模优势,通过大规模GPU部署来加速关键任务场景的边缘原生AI应用。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。