喵ID:hLWYky免责声明

Efficient Approaches for GEMM Acceleration on Leading AI-Optimized FPGAs

在领先的 AI 优化 FPGA 上进行 GEMM 加速的有效方法

基本信息

DOI:
10.48550/arxiv.2404.11066
发表时间:
2024
期刊:
ArXiv
影响因子:
--
通讯作者:
Aman Arora
中科院分区:
文献类型:
--
作者: Endri Taka;Dimitrios Gourounas;Andreas Gerstlauer;Diana Marculescu;Aman Arora研究方向: -- MeSH主题词: --
关键词: --
来源链接:pubmed详情页地址

文献摘要

FPGAs are a promising platform for accelerating Deep Learning (DL) applications, due to their high performance, low power consumption, and reconfigurability. Recently, the leading FPGA vendors have enhanced their architectures to more efficiently support the computational demands of DL workloads. However, the two most prominent AI-optimized FPGAs, i.e., AMD/Xilinx Versal ACAP and Intel Stratix 10 NX, employ significantly different architectural approaches. This paper presents novel systematic frameworks to optimize the performance of General Matrix Multiplication (GEMM), a fundamental operation in DL workloads, by exploiting the unique and distinct architectural characteristics of each FPGA. Our evaluation on GEMM workloads for int8 precision shows up to 77 and 68 TOPs (int8) throughput, with up to 0.94 and 1.35 TOPs/W energy efficiency for Versal VC1902 and Stratix 10 NX, respectively. This work provides insights and guidelines for optimizing GEMM-based applications on both platforms, while also delving into their programmability trade-offs and associated challenges.
现场可编程门阵列(FPGAs)由于其高性能、低功耗和可重构性,是加速深度学习(DL)应用的一个有前景的平台。最近,领先的FPGA供应商已经增强了其架构,以更高效地支持深度学习工作负载的计算需求。然而,两种最突出的人工智能优化的FPGA,即AMD/赛灵思Versal ACAP和英特尔Stratix 10 NX,采用了显著不同的架构方法。本文提出了新颖的系统框架,通过利用每种FPGA独特的架构特性来优化通用矩阵乘法(GEMM)——深度学习工作负载中的一种基本运算——的性能。我们对int8精度的GEMM工作负载的评估显示,Versal VC1902和Stratix 10 NX分别达到了高达77和68万亿次操作每秒(int8)的吞吐量,以及高达0.94和1.35万亿次操作每秒每瓦的能效。这项工作为在这两个平台上优化基于GEMM的应用提供了见解和指导方针,同时也深入探讨了它们在可编程性方面的权衡以及相关挑战。
参考文献(9)
被引文献(0)
Tensor Slices: FPGA Building Blocks For The Deep Learning Era
张量切片:深度学习时代的 FPGA 构建模块
DOI:
10.1145/3529650
发表时间:
2022
期刊:
ACM Transactions on Reconfigurable Technology and Systems
影响因子:
2.3
作者:
Arora, Aman;Ghosh, Moinak;Mehta, Samidh;Betz, Vaughn;John, Lizy K.
通讯作者:
John, Lizy K.
Exploring the Versal AI Engines for Accelerating Stencil-based Atmospheric Advection Simulation
探索 Versal AI 引擎以加速基于模板的大气平流模拟
DOI:
10.1145/3543622.3573047
发表时间:
2023
期刊:
影响因子:
0
作者:
Brown N
通讯作者:
Brown N
AIM: Accelerating Arbitrary-Precision Integer Multiplication on Heterogeneous Reconfigurable Computing Platform Versal ACAP
目的:在异构可重构计算平台 Versal ACAP 上加速任意精度整数乘法
DOI:
10.1109/iccad57390.2023.10323754
发表时间:
2023
期刊:
IEEE
影响因子:
0
作者:
Yang, Zhuoping;Zhuang, Jinming;Yin, Jiaqi;Yu, Cunxi;Jones, Alex K.;Zhou, Peipei
通讯作者:
Zhou, Peipei
CoMeFa: Deploying Compute-in-Memory on FPGAs for Deep Learning Acceleration
DOI:
10.1145/3603504
发表时间:
2023-06
期刊:
ACM Transactions on Reconfigurable Technology and Systems
影响因子:
2.3
作者:
Aman Arora;Atharva Bhamburkar;Aatman Borda;T. Anand;Rishabh Sehgal;Bagus Hanindhito;P. Gaillardon;J. Kulkarni;L. John
通讯作者:
Aman Arora;Atharva Bhamburkar;Aatman Borda;T. Anand;Rishabh Sehgal;Bagus Hanindhito;P. Gaillardon;J. Kulkarni;L. John
Vyasa: A High-Performance Vectorizing Compiler for Tensor Convolutions on the Xilinx AI Engine
DOI:
10.1109/hpec43674.2020.9286183
发表时间:
2020-01-01
期刊:
2020 IEEE HIGH PERFORMANCE EXTREME COMPUTING CONFERENCE (HPEC)
影响因子:
0
作者:
Chatarasi, Prasanth;Neuendorffer, Stephen;Sarkar, Vivek
通讯作者:
Sarkar, Vivek

数据更新时间:{{ references.updateTime }}

Aman Arora
通讯地址:
--
所属机构:
--
电子邮件地址:
--
免责声明免责声明
1、猫眼课题宝专注于为科研工作者提供省时、高效的文献资源检索和预览服务;
2、网站中的文献信息均来自公开、合规、透明的互联网文献查询网站,可以通过页面中的“来源链接”跳转数据网站。
3、在猫眼课题宝点击“求助全文”按钮,发布文献应助需求时求助者需要支付50喵币作为应助成功后的答谢给应助者,发送到用助者账户中。若文献求助失败支付的50喵币将退还至求助者账户中。所支付的喵币仅作为答谢,而不是作为文献的“购买”费用,平台也不从中收取任何费用,
4、特别提醒用户通过求助获得的文献原文仅用户个人学习使用,不得用于商业用途,否则一切风险由用户本人承担;
5、本平台尊重知识产权,如果权利所有者认为平台内容侵犯了其合法权益,可以通过本平台提供的版权投诉渠道提出投诉。一经核实,我们将立即采取措施删除/下架/断链等措施。
我已知晓