最新动态:得益于英特尔与埃森哲的长期合作,英特尔现推出了一套共计34个的开源AI参考套件,帮助开发者和数据科学家更快、更轻松地部署人工智能(AI)。每个套件均包含面向AI优化的模型代码、训练数据、机器学习流水线、库以及oneAPI组件,让企业可以在采用不同架构的本地、云端和边缘环境下灵活应用。
“英特尔AI参考套件为数百万开发者和数据科学家在健康和生命科学、金融服务、制造业、零售业等诸多领域开发和扩展AI应用,提供了简便、高效且经济实惠的方式。英特尔致力于通过广泛的产品组合——基于AI加速的处理器和系统,加以对开放AI软件生态的投入,推动构建一个让AI触手可及的未来。该参考套件采用了英特尔AI软件产品组合的丰富组件并基于开放、基于标准的oneAPI多架构编程模型所打造。”
——李炜博士,英特尔副总裁兼人工智能和分析部门总经理
重要意义:英特尔AI参考套件采用oneAPI开放的、基于标准的异构编程模型和英特尔端到端的AI软件产品组合的组件共同构建,其中包括英特尔®AI分析工具包和英特尔®发行版OpenVINO™工具套件,让AI开发者能够简化运用AI编写应用程序的流程,增强现行智能解决方案并加速部署。结果证明,相较于传统的模型开发流程,英特尔AI参考套件带来了显著的性能提升,同时让工作流程更为省时且高效。
预配置的套件简化了横跨消费品、能源和公用事业、金融服务、健康和生命科学、制造业、零售业和电信业等行业的AI开发。其惠及各行各业的部分示例如下:
●使用专为企业对话式AI聊天机器人交互设置而设计的AI参考套件,用户可以通过oneAPI优化,在批处理模式下将推理速度提升高达45%。1
● 专为生命科学领域的视觉质量控制检测自动化而设计的AI参考套件,在经过oneAPI优化后,视觉缺陷检测的训练速度提升高达20%,推理速度提升高达55%。2
● 对于用于开发者预测公用事业资产的健康状况并提高服务可靠性的AI参考套件,能将预测准确度提升高达25%。3
AI参考套件可以将解决方案的时间从数周缩短到数天,帮助数据科学家和开发者以更快的速度和更低的成本进行模型训练,克服专有环境的限制。在oneAPI驱动下,AI工具和优化能够更大限度地提高开放式加速计算应用的可移植性。
埃森哲董事总经理John Giubileo表示:“与英特尔合作为开源社区开发AI参考套件,促使我们客户能够以更高效地方式运行AI工作负载。这些基于oneAPI构建的套件旨在为开发者提供便捷和高效的AI解决方案,从而降低项目复杂性,缩短其在各行各业的部署时间。”
未来展望:英特尔将基于社区反馈和贡献,持续更新参考套件。包括视觉质量检测、企业对话式AI聊天机器人设置、预测资产健康分析、医学成像诊断、文档自动化、以及AI结构化数据生成等。
参考资料:
1 https://github.com/oneapi-src/customer-chatbot
2 https://github.com/oneapi-src/visual-quality-inspection
3 https://github.com/oneapi-src/predictive-asset-health-analytics
注意事项和免责声明:
性能会因用途、配置和其他因素而异。更多信息请参见www.Intel.com/PerformanceIndex。结果可能会有所不同。
性能结果基于所示配置的测试日期,可能不反映所有公开可用的更新。
英特尔不控制或审计第三方数据。您可以参考其他来源以评估准确性。
好文章,需要你的鼓励
腾讯今日开源混元MT系列语言模型,专门针对翻译任务进行优化。该系列包含四个模型,其中两个旗舰模型均拥有70亿参数。腾讯使用四个不同数据集进行初始训练,并采用强化学习进行优化。在WMT25基准测试中,混元MT在31个语言对中的30个表现优于谷歌翻译,某些情况下得分高出65%,同时也超越了GPT-4.1和Claude 4 Sonnet等模型。
腾讯ARC实验室推出AudioStory系统,首次实现AI根据复杂指令创作完整长篇音频故事。该系统结合大语言模型的叙事推理能力与音频生成技术,通过交错式推理生成、解耦桥接机制和渐进式训练,能够将复杂指令分解为连续音频场景并保持整体连贯性。在AudioStory-10K基准测试中表现优异,为AI音频创作开辟新方向。
今年是Frontiers Health十周年。在pharmaphorum播客的Frontiers Health限定系列中,网络编辑Nicole Raleigh采访了Startup Health总裁兼联合创始人Unity Stoakes。Stoakes在科技、科学和设计交汇领域深耕30多年,致力于变革全球健康。他认为,Frontiers Health通过精心选择的空间促进有意义的网络建设,利用网络效应推进创新力量,让企业家共同构建并带来改变,从而有益地影响全球人类福祉。
Meta与特拉维夫大学联合研发的VideoJAM技术,通过让AI同时学习外观和运动信息,显著解决了当前视频生成模型中动作不连贯、违反物理定律的核心问题。该技术仅需添加两个线性层就能大幅提升运动质量,在多项测试中超越包括Sora在内的商业模型,为AI视频生成的实用化应用奠定了重要基础。