AI异构计算架构对比分析
FPGA,即现场可编程门阵列,它是在PAL、GAL、CPLD等可编程器件的基础上进一步发展的产物。
AI芯片主要分为CPU 、GPU、FPGA以及ASIC。其中以CPU、GPU、FPGA、ASIC的顺序,通用性逐渐减低,但运算效率逐步提高。
FPGA,即现场可编程门阵列,它是在PAL、GAL、CPLD等可编程器件的基础上进一步发展的产物。
为解决能耗限制,无法使处理器核心同时运作,及性能提升有限的问题,业界提出的另一个方案就是采用“定制计算”,也就是为特定的工作场景和负载优化硬件设计。FPGA(“现场可编程逻辑阵列”)应运而生。
FPGA本质是一种可编程的芯片。可以把硬件设计重复烧写在它的可编程存储器里,从而使FPGA芯片可以执行不同的硬件设计和功能。FPGA具备以下优势:
可编程灵活性高:FPGA属于半定制电路,理论上,如果FPGA提供的门电路规模足够大,通过编程可以实现任意ASIC和DSP的逻辑功能。
开发周期短:FPGA不需布线、掩模和定制流片等,芯片开发流程简化。传统的ASIC和SoC设计周期平均是14到24个月,用FPGA时间可以平均降低55%。
并行效率高:FPGA属于并行计算,一次可执行多个算法指令。虽然普遍主频较低,但对部分特殊的任务,大量相对低速并行的单元比起少量高效单元而言效率更高。
全球FPGA市场规模:17年67.5亿美元,预计2020年,CAGR为8.28%,预计2020年可达到84亿美元;全球FPGA竞争栺局:“两大两小”。
1.“两大”:赛灵思和Altera,主要布局5G以及AI,主打可编程逻辑器件,带有软件工具的可编程逻辑技术、知识产权(IP)和技术服务,合计占87%市场仹额;
2.“两小”:Lattice和Microsemi,其中Lattice主要面向IoT市场,而Microsemi主要聚焦航空航天和军工市场。
目前国外龙头工艺技术已达7nm、10nm级,可实现4-5亿门器件规模。5G无线,数据中心,汽车,无线通俆, AI智能,工业,消费电子,医疗科学等,正在成为全球FPGA市场规模增长的主要驱劢力。
作为加速应用的AI芯片,主要的技术路线有三种:GPU、FPGA、ASIC。目前GPU是市场上用亍AI计算最成熟应用最广泛的通用型芯片,在算法技术和应用层次处于发展期, GPU由于其强大的计算能力、较低的研发成本和通用性将继续占领AI芯片的主要市场份额。
未来在激先雷达、无人机、无人驾驶、智能机器人等织端设备方面对计算能力也会有极大的提升,因此作为人工智能的底层计算能力(芯片)存在着大机会。其中, FPGA是可重新编程的硅芯片,在信号处理和控制应用中,它已经取代了自定制与用集成电路( ASIC)和处理器。
AI包括训练和推断两个环节,训练过程是指在已有数据中学习,获得判断能力的过程。对神经网络而言,训练过程通过不断更新网络参数,使推断误差最小化;推断过程则是指对新的数据,使用训练过程形成的能力完成特定任务(比如分类、识别等)。推断是直接将数据输入神经网络并评估结果的正向计算。
训练:计算规模庞大,涉及到大量训练数据和复杂的深度神经网络,目前应用最多的主要还是GPU。
推断:包括大量的矩阵运算,但相比较训练环节计算量较少,不仅CPU或GPU可以进行运算,也可使用FPGA以及ASIC。
- 探索于服务器+FPGA芯片模式的企业包括阿里于、亚马逊、微软等。
- 在现阶段于端数据中心业务中,FPGA以其灵活性和可深度优化的特点,有望继GPU之后在该市场爆发。
- FPGA可以处理用户实时计算请求以及小计量大批次的计算。
- 未来人工智能应用场景对终端设备推断能力的要求高,FPGA是低功耗异构芯片,开发周期快,编程灵活,人工智能领域的解决方案目前正从软件演进到软件+芯片。
- 基亍CPU的传统计算架构无法充分满足人工智能高性能并行计算需求,需要FPGA等人工智能架构的专属芯片。
- 在目前的终端智能安防领域,也有厂商采用FPGA方案实现AI硬件加速
英特尔 Arria FPGA和Stratix系列应用广泛,如数据中心,军事,广播,汽车和其他织端市场。
2019年4月3日,英特尔宣布推出全新产品家族英特尔Agilex FPGA。Agilex FPGA是第一款集成了Intel几乎所有当前创新技术的FPGA产品,包括10nm制造工艺、异构3D SiP封装、PCIe 5.0总线、DDR5/HBM/傲腾DC持久性内存、eASIC设备One API统一开収接口、CXL缓存和内存一致性高速亏连总线。
Agilex FPGA基于创新型异构 3D SiP 技术,将模拟、内存、自定义计算、自定义 I/O ,英特尔 eASIC和FPGA逻辑结构集成到一个芯片封装中。英特尔可提供从 FPGA 到结构化 ASIC的迁移路径。可为边缘计算、嵌入式、网络(5G/NFV)、数据中心带来发革的应用和灵活的硬件加速。
0赞 好文章,需要你的鼓励
推荐文章
Oracle 推出最新一代 Exadata 平台 X11M,大幅提升了 Oracle 数据库在 AI、OLTP 和分析方面的性能。X11M 针对云、多云和客户数据中心环境进行了优化,在速度和效率上相比前代系统有显著提升。它通过硬件和软件的深度集成,为企业客户提供了强大的数据处理能力,同时兼顾了可扩展性、成本效益和可持续性。X11M 的推出标志着 Oracle 在数据库技术领域又迈出了重要一步。
在Anthropic研究沙龙上,研究人员讨论了人工智能的对齐科学、可解释性及其未来。对齐被视为一个迭代过程,旨在让AI模拟具有道德动
在 GPU 众多特性中,NVIDIA GPU 凭借其独特的 CUDA 架构和丰富的 CUDA 核心而备受瞩目。然而,由于 GPU 资源的高昂成本和相对稀缺
随着数据中心能耗的急剧增长,使之成为双碳目标达成的重点监控目标。文章针对数据中心中功耗大于200W的高功率芯片,沿着散热路径