最新动态:得益于英特尔与埃森哲的长期合作,英特尔现推出了一套共计34个的开源AI参考套件,帮助开发者和数据科学家更快、更轻松地部署人工智能(AI)。每个套件均包含面向AI优化的模型代码、训练数据、机器学习流水线、库以及oneAPI组件,让企业可以在采用不同架构的本地、云端和边缘环境下灵活应用。
“英特尔AI参考套件为数百万开发者和数据科学家在健康和生命科学、金融服务、制造业、零售业等诸多领域开发和扩展AI应用,提供了简便、高效且经济实惠的方式。英特尔致力于通过广泛的产品组合——基于AI加速的处理器和系统,加以对开放AI软件生态的投入,推动构建一个让AI触手可及的未来。该参考套件采用了英特尔AI软件产品组合的丰富组件并基于开放、基于标准的oneAPI多架构编程模型所打造。”
——李炜博士,英特尔副总裁兼人工智能和分析部门总经理
重要意义:英特尔AI参考套件采用oneAPI开放的、基于标准的异构编程模型和英特尔端到端的AI软件产品组合的组件共同构建,其中包括英特尔®AI分析工具包和英特尔®发行版OpenVINO™工具套件,让AI开发者能够简化运用AI编写应用程序的流程,增强现行智能解决方案并加速部署。结果证明,相较于传统的模型开发流程,英特尔AI参考套件带来了显著的性能提升,同时让工作流程更为省时且高效。
预配置的套件简化了横跨消费品、能源和公用事业、金融服务、健康和生命科学、制造业、零售业和电信业等行业的AI开发。其惠及各行各业的部分示例如下:
●使用专为企业对话式AI聊天机器人交互设置而设计的AI参考套件,用户可以通过oneAPI优化,在批处理模式下将推理速度提升高达45%。1
● 专为生命科学领域的视觉质量控制检测自动化而设计的AI参考套件,在经过oneAPI优化后,视觉缺陷检测的训练速度提升高达20%,推理速度提升高达55%。2
● 对于用于开发者预测公用事业资产的健康状况并提高服务可靠性的AI参考套件,能将预测准确度提升高达25%。3
AI参考套件可以将解决方案的时间从数周缩短到数天,帮助数据科学家和开发者以更快的速度和更低的成本进行模型训练,克服专有环境的限制。在oneAPI驱动下,AI工具和优化能够更大限度地提高开放式加速计算应用的可移植性。
埃森哲董事总经理John Giubileo表示:“与英特尔合作为开源社区开发AI参考套件,促使我们客户能够以更高效地方式运行AI工作负载。这些基于oneAPI构建的套件旨在为开发者提供便捷和高效的AI解决方案,从而降低项目复杂性,缩短其在各行各业的部署时间。”
未来展望:英特尔将基于社区反馈和贡献,持续更新参考套件。包括视觉质量检测、企业对话式AI聊天机器人设置、预测资产健康分析、医学成像诊断、文档自动化、以及AI结构化数据生成等。
参考资料:
1 https://github.com/oneapi-src/customer-chatbot
2 https://github.com/oneapi-src/visual-quality-inspection
3 https://github.com/oneapi-src/predictive-asset-health-analytics
注意事项和免责声明:
性能会因用途、配置和其他因素而异。更多信息请参见www.Intel.com/PerformanceIndex。结果可能会有所不同。
性能结果基于所示配置的测试日期,可能不反映所有公开可用的更新。
英特尔不控制或审计第三方数据。您可以参考其他来源以评估准确性。
好文章,需要你的鼓励
谷歌CEO皮查伊在AI竞赛低谷期坚持"信号降噪"原则,顶住压力加倍投入,最终带领谷歌凭借Gemini系列重夺领先。他坚信AI将超越火与电的革命性影响,通过递归自我改进极大降低创意实现门槛,这场"创造力民主化"浪潮或将解锁80亿人的认知潜能。
浙江大学和吉利汽车研究院联合团队提出的FreeTimeGS是一种创新的动态3D场景重建方法。不同于传统方法,它允许高斯基元在任意时空位置自由出现,并赋予每个基元运动功能,使其能够随时间移动到相邻区域。研究通过4D正则化策略解决了高不透明度基元阻碍优化的问题。在多个数据集测试中,该方法在渲染质量和速度上均大幅超越现有技术,特别是在处理复杂动态场景时,使用单个RTX 4090 GPU能以467 FPS的速度实现1080p实时渲染,为电影制作、游戏和虚拟现实等应用提供了新可能。
李飞飞的World Labs以"空间智能"重新定义AI,专注3D物理世界理解,4个月估值飙至10亿美元,获科技巨头集体押注。她揭示语言无法编码物理世界,而DNA双螺旋等突破性发现都源于三维空间的深度认知。
这篇研究介绍了"对角线批处理"技术,该技术解决了循环记忆Transformer模型在处理长文本时的并行计算瓶颈。通过重新编排计算顺序,研究团队实现了在不破坏依赖关系的情况下进行并行计算,使LLaMA-1B模型处理长文本的速度提升3.3倍,同时内存使用减少167.1倍。这种纯运行时优化不需要重新训练模型,为实际应用中的长文本处理提供了高效解决方案。