AMD希望通过其开放软件生态系统赢得亚太地区人工智能开发者的青睐,帮助该地区在全球舞台上竞争,而无需依赖专有的AI开发工具。
尽管这家美国芯片制造商在硬件方面已经取得了进展,推出了Instinct数据中心图形处理单元和Ryzen处理器,但AMD的软件层——特别是ROCm平台——对于为更广泛的市场释放这种性能至关重要。
但AMD并没有构建一个技术被单一实体控制的封闭花园,而是选择了ROCm的开源路线,它与vLLM等其他开源项目集成,以实现更快的创新。
在此过程中,它希望打破封闭源码软件环境的控制,特别是英伟达的Cuda,后者被用于构建在GPU上运行的AI应用程序。
"我们可以尝试构建封闭源码的东西,但我们不会获得开放生态系统的速度,"AMD AI软件副总裁Anush Elangovan说。"相反,我们希望利用每个人的能力来推动行业向前发展。这就像Linux内核,每个人都在协作并且发展得非常快。"
Elangovan指出,AMD软件栈的开放性质对亚太地区市场特别有益,因为它提供了一个"共同基线",让公司能够建立自己的AI能力。
"我参与了该地区不少正在建设大型数据中心并大规模部署AMD芯片的公司,"他说,并补充说ROCm还将允许他们在模型开发和基础设施方面进行竞争。
该公司还启动了"ROCm everywhere"倡议,为开发者统一体验,无论他们是在笔记本电脑上工作还是在大型超级计算机上工作。这使得该地区的学生和初创公司能够从可负担的硬件开始小规模起步,并根据需要扩大规模。
这种可扩展性得到了AMD芯片架构的支持,Elangovan声称这在推理工作负载中提供了明显的优势,推理是通过训练好的模型运行实时数据的过程。
他指出,AMD的芯片设计具有高内存带宽,使它们能够在单个系统上处理非常大的AI模型。这种效率可以减少对液体冷却系统的需求,而液体冷却系统在老旧设施中改装成本高昂。
"你可以选择稍微低一点的密度,这样你就可以使用风冷基础设施而不是液冷基础设施,然后仍然获得顶级的能力,"他解释说。
在工作负载方面,Elangovan说除了大语言模型之外,组织还在运行更多的文本到图像和文本到视频工作负载。他以Luma Labs为例,指出他们的Ray3视频生成模型"完全在AMD平台上训练和服务"。
即使AMD继续迭代ROCm——第7版支持新的MI350芯片——Elangovan说开发者不应该仅仅将AMD视为硬件供应商。
"AMD越来越像一家软件公司一样构建和交付软件,"他说。"你应该把我们看作是开发者可以信任并在其上构建的软件平台,一个将比硬件世代更长久的平台。"
Q&A
Q1:ROCm平台是什么?它有什么特点?
A:ROCm是AMD的开源软件平台,它与vLLM等其他开源项目集成,为AI开发提供开放的生态系统。与英伟达的封闭源码Cuda不同,ROCm采用开源路线,能够实现更快的创新速度。
Q2:AMD如何帮助亚太地区发展AI能力?
A:AMD通过开放的软件栈为亚太地区提供"共同基线",让公司能够建立自己的AI能力。通过"ROCm everywhere"倡议,该地区的学生和初创公司可以从可负担的硬件开始,然后根据需要扩大规模。
Q3:AMD芯片在AI推理方面有什么优势?
A:AMD芯片采用芯片架构,具有高内存带宽,能够在单个系统上处理非常大的AI模型。这种效率可以减少对昂贵液体冷却系统的需求,使用风冷基础设施就能获得顶级性能。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。