IBM公司和Groq公司今天宣布建立战略合作伙伴关系,旨在通过将IBM的watsonx Orchestrate与Groq的硬件加速推理技术相结合,加速企业智能体人工智能的部署。
此次合作将让IBM客户通过IBM平台访问Groq的语言处理单元,目标是降低大规模低延迟AI的成本。
Groq是一家以硬件为核心的AI基础设施公司,专门通过其专有的LPU架构进行推理加速。IBM表示,Groq的定制LPU比英伟达公司制造的传统图形处理器提供超过五倍的速度和更高的成本效率推理,即使在工作负载扩大时也能保持一致的性能。
两家公司还将扩展对虚拟大语言模型和Red Hat的llm-d框架的支持,用于在Groq的LPU架构上进行大规模分布式推理。IBM的Granite模型将在GroqCloud上运行,这是一个为开发者提供大语言模型高速、低成本处理访问的推理平台。
IBM表示,Groq提供了一个安全、合规的AI部署平台,满足最严格的监管和安全要求。Watsonx Orchestrate用于使用预构建或定制设计的智能体自动化业务流程。与watsonx Orchestrate的集成旨在帮助IBM客户更快、更低成本地将专用智能体推向生产。
Groq已筹集18亿美元资金,包括上个月的7.5亿美元融资轮,使该公司估值达到69亿美元。
IBM表示,速度和编排的结合对医疗保健和金融等受监管行业至关重要。它举例说明一家健康保险提供商使用Groq技术同时实时处理数千个患者和提供商的问题。
IBM软件高级副总裁兼首席商务官Rob Thomas在声明中表示:"许多大型企业组织在实验时有各种AI推理选择,但当他们想要投入生产时,必须确保复杂工作流程能够成功部署,以确保高质量的体验。"
IBM表示,访问Groq功能的服务立即可用。
Q&A
Q1:Groq的LPU技术相比英伟达GPU有什么优势?
A:IBM表示,Groq的定制LPU比英伟达制造的传统图形处理器提供超过五倍的速度和更高的成本效率推理,即使在工作负载扩大时也能保持一致的性能。
Q2:IBM和Groq的合作对企业客户有什么好处?
A:此次合作将让IBM客户通过IBM平台访问Groq的语言处理单元,目标是降低大规模低延迟AI的成本,并帮助客户更快、更低成本地将专用智能体推向生产。
Q3:Groq技术在哪些行业有实际应用?
A:IBM表示速度和编排的结合对医疗保健和金融等受监管行业至关重要,并举例说明一家健康保险提供商使用Groq技术同时实时处理数千个患者和提供商的问题。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。