AI异构计算架构对比分析
FPGA,即现场可编程门阵列,它是在PAL、GAL、CPLD等可编程器件的基础上进一步发展的产物。
AI芯片主要分为CPU 、GPU、FPGA以及ASIC。其中以CPU、GPU、FPGA、ASIC的顺序,通用性逐渐减低,但运算效率逐步提高。
FPGA,即现场可编程门阵列,它是在PAL、GAL、CPLD等可编程器件的基础上进一步发展的产物。
为解决能耗限制,无法使处理器核心同时运作,及性能提升有限的问题,业界提出的另一个方案就是采用“定制计算”,也就是为特定的工作场景和负载优化硬件设计。FPGA(“现场可编程逻辑阵列”)应运而生。
FPGA本质是一种可编程的芯片。可以把硬件设计重复烧写在它的可编程存储器里,从而使FPGA芯片可以执行不同的硬件设计和功能。FPGA具备以下优势:
可编程灵活性高:FPGA属于半定制电路,理论上,如果FPGA提供的门电路规模足够大,通过编程可以实现任意ASIC和DSP的逻辑功能。
开发周期短:FPGA不需布线、掩模和定制流片等,芯片开发流程简化。传统的ASIC和SoC设计周期平均是14到24个月,用FPGA时间可以平均降低55%。
并行效率高:FPGA属于并行计算,一次可执行多个算法指令。虽然普遍主频较低,但对部分特殊的任务,大量相对低速并行的单元比起少量高效单元而言效率更高。
全球FPGA市场规模:17年67.5亿美元,预计2020年,CAGR为8.28%,预计2020年可达到84亿美元;全球FPGA竞争栺局:“两大两小”。
1.“两大”:赛灵思和Altera,主要布局5G以及AI,主打可编程逻辑器件,带有软件工具的可编程逻辑技术、知识产权(IP)和技术服务,合计占87%市场仹额;
2.“两小”:Lattice和Microsemi,其中Lattice主要面向IoT市场,而Microsemi主要聚焦航空航天和军工市场。
目前国外龙头工艺技术已达7nm、10nm级,可实现4-5亿门器件规模。5G无线,数据中心,汽车,无线通俆, AI智能,工业,消费电子,医疗科学等,正在成为全球FPGA市场规模增长的主要驱劢力。
作为加速应用的AI芯片,主要的技术路线有三种:GPU、FPGA、ASIC。目前GPU是市场上用亍AI计算最成熟应用最广泛的通用型芯片,在算法技术和应用层次处于发展期, GPU由于其强大的计算能力、较低的研发成本和通用性将继续占领AI芯片的主要市场份额。
未来在激先雷达、无人机、无人驾驶、智能机器人等织端设备方面对计算能力也会有极大的提升,因此作为人工智能的底层计算能力(芯片)存在着大机会。其中, FPGA是可重新编程的硅芯片,在信号处理和控制应用中,它已经取代了自定制与用集成电路( ASIC)和处理器。
AI包括训练和推断两个环节,训练过程是指在已有数据中学习,获得判断能力的过程。对神经网络而言,训练过程通过不断更新网络参数,使推断误差最小化;推断过程则是指对新的数据,使用训练过程形成的能力完成特定任务(比如分类、识别等)。推断是直接将数据输入神经网络并评估结果的正向计算。
训练:计算规模庞大,涉及到大量训练数据和复杂的深度神经网络,目前应用最多的主要还是GPU。
推断:包括大量的矩阵运算,但相比较训练环节计算量较少,不仅CPU或GPU可以进行运算,也可使用FPGA以及ASIC。
- 探索于服务器+FPGA芯片模式的企业包括阿里于、亚马逊、微软等。
- 在现阶段于端数据中心业务中,FPGA以其灵活性和可深度优化的特点,有望继GPU之后在该市场爆发。
- FPGA可以处理用户实时计算请求以及小计量大批次的计算。
- 未来人工智能应用场景对终端设备推断能力的要求高,FPGA是低功耗异构芯片,开发周期快,编程灵活,人工智能领域的解决方案目前正从软件演进到软件+芯片。
- 基亍CPU的传统计算架构无法充分满足人工智能高性能并行计算需求,需要FPGA等人工智能架构的专属芯片。
- 在目前的终端智能安防领域,也有厂商采用FPGA方案实现AI硬件加速
英特尔 Arria FPGA和Stratix系列应用广泛,如数据中心,军事,广播,汽车和其他织端市场。
2019年4月3日,英特尔宣布推出全新产品家族英特尔Agilex FPGA。Agilex FPGA是第一款集成了Intel几乎所有当前创新技术的FPGA产品,包括10nm制造工艺、异构3D SiP封装、PCIe 5.0总线、DDR5/HBM/傲腾DC持久性内存、eASIC设备One API统一开収接口、CXL缓存和内存一致性高速亏连总线。
Agilex FPGA基于创新型异构 3D SiP 技术,将模拟、内存、自定义计算、自定义 I/O ,英特尔 eASIC和FPGA逻辑结构集成到一个芯片封装中。英特尔可提供从 FPGA 到结构化 ASIC的迁移路径。可为边缘计算、嵌入式、网络(5G/NFV)、数据中心带来发革的应用和灵活的硬件加速。
0赞好文章,需要你的鼓励
推荐文章
这项由索非亚大学INSAIT和苏黎世联邦理工学院共同完成的研究,揭示了大语言模型在数学定理证明中普遍存在的"迎合性"问题。研究团队构建了BrokenMath基准测试集,包含504道精心设计的错误数学命题,用于评估主流AI模型能否识别并纠正错误陈述。
约翰斯·霍普金斯大学研究团队提出了创新的隐私保护AI文本生成方法,通过"控制代码"系统指导AI生成虚假敏感信息来替代真实数据。该方法采用"藏身于众"策略,在医疗法律等敏感领域测试中实现了接近零的隐私泄露率,同时保持了高质量的文本生成效果,为高风险领域的AI应用提供了实用的隐私保护解决方案。
实验室和真实使用测试显示,iPhone Air电池续航能够满足一整天的典型使用需求。在CNET进行的三小时视频流媒体压力测试中,iPhone Air仅消耗15%电量,表现与iPhone 15相当。在45分钟高强度使用测试中表现稍逊,但在实际日常使用场景下,用户反馈iPhone Air能够稳定支撑全天使用,有线充电速度也比较理想。
这项由Reactive AI提出的稀疏查询注意力机制通过减少查询头数量而非键值头数量,直接降低了注意力层的计算复杂度,实现了2-3倍的训练和编码加速。该方法在长序列处理中表现出色,在20万词汇序列上达到3.5倍加速,且模型质量损失微乎其微,为计算密集型AI应用提供了新的优化路径。