AI异构计算架构对比分析
FPGA,即现场可编程门阵列,它是在PAL、GAL、CPLD等可编程器件的基础上进一步发展的产物。
AI芯片主要分为CPU 、GPU、FPGA以及ASIC。其中以CPU、GPU、FPGA、ASIC的顺序,通用性逐渐减低,但运算效率逐步提高。
FPGA,即现场可编程门阵列,它是在PAL、GAL、CPLD等可编程器件的基础上进一步发展的产物。
为解决能耗限制,无法使处理器核心同时运作,及性能提升有限的问题,业界提出的另一个方案就是采用“定制计算”,也就是为特定的工作场景和负载优化硬件设计。FPGA(“现场可编程逻辑阵列”)应运而生。
FPGA本质是一种可编程的芯片。可以把硬件设计重复烧写在它的可编程存储器里,从而使FPGA芯片可以执行不同的硬件设计和功能。FPGA具备以下优势:
可编程灵活性高:FPGA属于半定制电路,理论上,如果FPGA提供的门电路规模足够大,通过编程可以实现任意ASIC和DSP的逻辑功能。
开发周期短:FPGA不需布线、掩模和定制流片等,芯片开发流程简化。传统的ASIC和SoC设计周期平均是14到24个月,用FPGA时间可以平均降低55%。
并行效率高:FPGA属于并行计算,一次可执行多个算法指令。虽然普遍主频较低,但对部分特殊的任务,大量相对低速并行的单元比起少量高效单元而言效率更高。
全球FPGA市场规模:17年67.5亿美元,预计2020年,CAGR为8.28%,预计2020年可达到84亿美元;全球FPGA竞争栺局:“两大两小”。
1.“两大”:赛灵思和Altera,主要布局5G以及AI,主打可编程逻辑器件,带有软件工具的可编程逻辑技术、知识产权(IP)和技术服务,合计占87%市场仹额;
2.“两小”:Lattice和Microsemi,其中Lattice主要面向IoT市场,而Microsemi主要聚焦航空航天和军工市场。
目前国外龙头工艺技术已达7nm、10nm级,可实现4-5亿门器件规模。5G无线,数据中心,汽车,无线通俆, AI智能,工业,消费电子,医疗科学等,正在成为全球FPGA市场规模增长的主要驱劢力。
作为加速应用的AI芯片,主要的技术路线有三种:GPU、FPGA、ASIC。目前GPU是市场上用亍AI计算最成熟应用最广泛的通用型芯片,在算法技术和应用层次处于发展期, GPU由于其强大的计算能力、较低的研发成本和通用性将继续占领AI芯片的主要市场份额。
未来在激先雷达、无人机、无人驾驶、智能机器人等织端设备方面对计算能力也会有极大的提升,因此作为人工智能的底层计算能力(芯片)存在着大机会。其中, FPGA是可重新编程的硅芯片,在信号处理和控制应用中,它已经取代了自定制与用集成电路( ASIC)和处理器。
AI包括训练和推断两个环节,训练过程是指在已有数据中学习,获得判断能力的过程。对神经网络而言,训练过程通过不断更新网络参数,使推断误差最小化;推断过程则是指对新的数据,使用训练过程形成的能力完成特定任务(比如分类、识别等)。推断是直接将数据输入神经网络并评估结果的正向计算。
训练:计算规模庞大,涉及到大量训练数据和复杂的深度神经网络,目前应用最多的主要还是GPU。
推断:包括大量的矩阵运算,但相比较训练环节计算量较少,不仅CPU或GPU可以进行运算,也可使用FPGA以及ASIC。
- 探索于服务器+FPGA芯片模式的企业包括阿里于、亚马逊、微软等。
- 在现阶段于端数据中心业务中,FPGA以其灵活性和可深度优化的特点,有望继GPU之后在该市场爆发。
- FPGA可以处理用户实时计算请求以及小计量大批次的计算。
- 未来人工智能应用场景对终端设备推断能力的要求高,FPGA是低功耗异构芯片,开发周期快,编程灵活,人工智能领域的解决方案目前正从软件演进到软件+芯片。
- 基亍CPU的传统计算架构无法充分满足人工智能高性能并行计算需求,需要FPGA等人工智能架构的专属芯片。
- 在目前的终端智能安防领域,也有厂商采用FPGA方案实现AI硬件加速
英特尔 Arria FPGA和Stratix系列应用广泛,如数据中心,军事,广播,汽车和其他织端市场。
2019年4月3日,英特尔宣布推出全新产品家族英特尔Agilex FPGA。Agilex FPGA是第一款集成了Intel几乎所有当前创新技术的FPGA产品,包括10nm制造工艺、异构3D SiP封装、PCIe 5.0总线、DDR5/HBM/傲腾DC持久性内存、eASIC设备One API统一开収接口、CXL缓存和内存一致性高速亏连总线。
Agilex FPGA基于创新型异构 3D SiP 技术,将模拟、内存、自定义计算、自定义 I/O ,英特尔 eASIC和FPGA逻辑结构集成到一个芯片封装中。英特尔可提供从 FPGA 到结构化 ASIC的迁移路径。可为边缘计算、嵌入式、网络(5G/NFV)、数据中心带来发革的应用和灵活的硬件加速。
0赞好文章,需要你的鼓励
推荐文章
DeepResearchGym是一个创新的开源评估框架,专为深度研究系统设计,旨在解决当前依赖商业搜索API带来的透明度和可重复性挑战。该系统由卡内基梅隆大学研究团队开发,结合了基于ClueWeb22和FineWeb大型网络语料库的可重复搜索API与严格的评估协议。实验表明,使用DeepResearchGym的系统性能与使用商业API相当,且在评估指标间保持一致性。人类评估进一步证实了自动评估协议与人类偏好的一致性,验证了该框架评估深度研究系统的有效性。
这项研究介绍了FinTagging,首个面向大型语言模型的全面财务信息提取与结构化基准测试。不同于传统方法,它将XBRL标记分解为数值识别和概念链接两个子任务,能同时处理文本和表格数据。在零样本测试中,DeepSeek-V3和GPT-4o表现最佳,但在细粒度概念对齐方面仍面临挑战,揭示了当前大语言模型在自动化XBRL标记领域的局限性,为金融AI发展提供了新方向。
这项研究介绍了SweEval,一个新型基准测试,用于评估大型语言模型在企业环境中处理脏话的能力。研究团队从Oracle AI等多家机构的专家创建了一个包含八种语言的测试集,模拟不同语调和上下文的真实场景。实验结果显示,LLM在英语中较少使用脏话,但在印地语等低资源语言中更易受影响。研究还发现较大模型通常表现更好,且多语言模型如Llama系列在处理不当提示方面优于其他模型。这项工作对企业采用AI技术时的安全考量提供了重要参考。
这项研究提出了"VeriFree"——一种不需要验证器的方法,可以增强大型语言模型(LLM)的通用推理能力。传统方法如DeepSeek-R1-Zero需要验证答案正确性,限制了其在数学和编程以外领域的应用。VeriFree巧妙地计算正确答案在模型生成的推理过程后出现的概率,作为评估和训练信号。实验表明,这种方法不仅能匹配甚至超越基于验证器的方法,还大幅降低了计算资源需求,同时消除了"奖励黑客"问题。这一突破将有助于开发出在化学、医疗、法律等广泛领域具有更强推理能力的AI系统。