在宏观层面上,GNN的架构与传统CNN有很多相似之处,诸如卷积层、池化、激活函数、机器学习处理器(MLP)、全连接层(FC layer)等模块,这些都可以应用到GNN。下图展示了一个相对简单的GNN架构……

得益于大数据的兴起和计算能力的快速提升,机器学习技术近年来经历了革命性的发展。诸如图像分类、语音识别和自然语言处理等机器学习任务,都是对具有一定大小、维度和有序排列的欧几里得数据进行处理。然而,在许多现实场景中,数据是由复杂的非欧几里得数据(例如图形)表示的。这些图形不仅包含数据,还包含数据之间的依赖关系,例如社交网络、蛋白质分子结构、电子商务平台中的客户数据等。数据复杂性的提升给传统的机器学习算法设计及其实现技术带来了严峻的挑战。在这种情况下,许多全新的基于图形的机器学习算法或图神经网络(GNN)不断在学术界和工业界涌现。

GNN对计算能力和存储有非常高的要求,而且其算法的软件实现效率非常低。因此,业界对GNN的硬件加速有着非常迫切的需求。尽管传统的卷积神经网络(CNN)硬件加速有很多种解决方案,但GNN的硬件加速还没有得到充分的讨论和研究。在撰写本白皮书时,谷歌(Google)和百度(Baidu)都无法搜索到关于GNN硬件加速的中文研究资料。本白皮书的写作动机是将国外最新的GNN算法、对加速技术的研究以及对基于现场可编程逻辑门阵列(FPGA)的GNN加速技术的探讨相结合,并以概述的形式呈现给读者。

图神经网络(GNN的介绍

在宏观层面上,GNN的架构与传统CNN有很多相似之处,诸如卷积层、池化、激活函数、机器学习处理器(MLP)、全连接层(FC layer)等模块,这些都可以应用到GNN。下图展示了一个相对简单的GNN架构。

图1:典型的GNN架构(来源:https://arxiv.org/abs/1901.00596

但是,GNN中的图形数据卷积计算与传统CNN中的二维卷积计算不同。以下图为例,红色目标节点的卷积计算过程如下所示:

1、图卷积 - 使用近邻函数对周围节点的特征进行采样,并计算平均值。相邻节点的数量是不确定且无序的(非欧几里得数据)

2、二维卷积——使用卷积核对周围节点的特征进行采样,并计算加权平均值。相邻节点的数量是确定且有序的(欧几里得数据)

图2:图卷积和二维卷积(来源:https://arxiv.org/abs/1901.00596

GraphSAGE算法的介绍

学术界对GNN算法进行了大量的研究和探讨,提出了相当多的创新实现方法。其中,由斯坦福大学(Stanford University)于2017年提出的GraphSAGE是一种归纳表示学习算法,用于预测大规模图中动态的、全新的、未知的节点类型,还专门针对节点数量庞大、节点特征丰富的图进行了优化。如下图所示,GraphSAGE算法的计算过程可以分为三个主要步骤:

1、相邻节点采样——用于降低复杂性,一般采样两层,每层采样几个节点。

2、聚合——用于嵌入目标节点,即图的低维向量表示。

3、预测——使用嵌入作为全连接层的输入,以预测目标节点d的标签。

图3:GraphSAGE算法的可视化表示(来源:http://snap.stanford.edu/graphsage

1.Sample neighborhood

1、样本邻域

2.Aggregate feature information from neighbors

2、聚合来自邻域的特征信息

3.Predict graph context and label using aggregated information

3、利用聚合信息预测图形情况和标签

为了在FPGA中实现GraphSAGE算法加速,必须了解其数学模型,以便将算法映射到不同的逻辑模块。下图所示的代码说明了该算法的数学过程。

图4:GraphSAGE算法的数学模型(来源:http://snap.stanford.edu/graphsage

Step 1: Sample a sub-graph node with neighborhood function N[}.

步骤1:使用近邻函数N[}对子图节点进行采样。

Step 2: Aggregate features from neighbor nodes, e.g. mean[}, lstm[}, polling[}

步骤2:聚合相邻节点的特征,例如mean[}、lstm[}、polling[}

Step3: Combine aggregated node features. E.g. convolution[}

步骤3:合并聚合的节点特征。例如卷积[}

Step 4: Nonlinear activation, e.g, relu[}

步骤4:非线性激活,例如relu[}

Step 5: Iterate for each neighbor with a sub-graph

步骤5:使用子图迭代每个邻域

Step 6: Normalize

步骤6:标准化

Step 7: Iterate for each search-depth

步骤7:对每个深度搜索进行迭代

Step 8: Final node embedding of node v

步骤8:节点v的最终节点嵌入

对于每个要处理的目标节点xv,GraphSAGE算法都会执行以下操作:

1、通过近邻采样函数N(v)对子图中的节点进行采样。

2、聚合要采样的相邻节点的特征。聚合函数可以是mean()、lstm()或polling()等。

3、将聚合结果与上一次迭代的输出表示合并起来,并使用Wk进行卷积。

4、对卷积结果进行非线性处理。

5、多次迭代以结束当前第k层的所有相邻节点的处理。

6、对第k层迭代的结果进行标准化处理。

7、多次迭代以结束对所有K层采样深度的处理。

8、将最终的迭代结果zv嵌入到输入节点xv。

GNN加速器设计所面临的挑战

GNN算法涉及大量的矩阵计算和存储访问操作。在传统的x86架构服务器上运行这种算法的效率是非常低的,表现为速度慢、能耗高等。

新型图形处理器(GPU)的应用可以显著提高GNN的计算速度与能效比。但是,GPU在存储可扩展性方面存在短板,使其无法处理图形中的海量节点。GPU的指令执行方式也会导致计算延迟过大和不确定性;因此,它不适用于需要实时计算图形的场景。

上面提到的各种设计挑战,使得业界迫切需要一种能够支持高并发、实时计算,拥有巨大存储容量和带宽,并可扩展到数据中心的GNN加速解决方案。

基于FPGA设计方案GNN加速器

Achronix的Speedster®7t系列FPGA产品(以及该系列的第一款器件AC7t1500)是针对数据中心和机器学习工作负载进行了优化的高性能FPGA器件,消除了基于中央处理器(CPU)、GPU和传统FPGA的解决方案中存在的若干性能瓶颈。Speedster7t系列FPGA产品采用了台积电(TSMC)的7nm FinFET工艺,其架构采用了一种革命性的全新二维片上网络(NoC)、独创的机器学习处理器矩阵(MLP),并采用高带宽GDDR6控制器、400G以太网和PCI Express Gen5接口,在确保ASIC级性能的同时,它为用户提供了灵活的硬件可编程性。下图展示了高性能FPGA器件Speedster7t1500的架构。

5Achronix高性能FPGA器件Speedster AC7t1500架构

上述特点使Achronix Speedster7t1500器件成为应对在GNN加速器设计中面临的各种挑战的完美解决方案。

1GNN设计面临的挑战和Achronix Speedster7t1500 FPGA器件提供的解决方案

 

GNN设计面临的挑战 Speedster AC7t1500器件提供的解决方案
高速矩阵运算 机器学习处理器(MLP)
高带宽和低延迟存储 LRAM+BRAM+GDDR6+DDR4。
高并发和低延迟计算 FPGA使用可编程逻辑电路,以确保在硬件层面进行低并发和高并发延迟计算。
存储扩展 基于4×400 Gbps的RDMA确保在数据中心以极低的延迟扩展存储访问。
算法不断演进 FPGA中的可编程逻辑确保算法可以在硬件层面进行升级和重新配置。
复杂的设计 丰富的硬IP减少开发时间、降低复杂性,NoC简化模块之间的互连并改善时序

 

GNN加速器顶层架构

此GNN加速器是为GraphSAGE算法设计的,但是它的设计也可以应用于其他类似的GNN算法加速。其顶层架构如下图所示。

6GNN加速器顶层架构

Synthesizable IPs

可综合的IP

GNN Core: Preforms GNN computation

GNN内核:执行GNN计算

RoCE-Lite: Memory scalability with RDMA

RoCE-Lite:采用RDMA的存储可扩展性

Harden IPs

硬化IP

NoC: High speed and unified IP connectivity

NoC:高速、统一的IP连接

DDR4 Ctrl: Large memory for graph storage

DDR4 Ctrl:用于图形存储的大存储容量

GDDR6 Ctrl: High speed memory for computing

GDDR6 Ctrl:用于计算的高速存储

PCIe Gen5×16: High throughout host interface

PCIe Gen5×16:高吞吐量的主机接口

Ethernet 400GE: High speed network

以太网400GE:高速网络

该架构由以下模块组成:

图中的GNN内核是算法实现的核心部分(详情如下)。

RoCE-Lite是RDMA协议的轻量级版本,用于通过高速以太网进行远程存储访问,以支持海量节点的图计算。

400GE以太网控制器用于承载RoCE-Lite协议。

GDDR6存储器用于存储GNN处理过程中所需的高速访问数据(DDR4作为备用大容量存储器)。该存储器用于存储访问频率相对较低的数据,例如待预处理的图形数据。

PCIe Gen5 ×16 接口提供高速主机接口,用于与服务器软件进行数据交互。

上述所有模块均通过具有高带宽的NoC实现互连。

GNN内核微架构

在开始讨论GNN内核的微架构之前,有必要先回顾一下GraphSAGE算法。其内层循环的聚合和合并(包括卷积)占据了该算法的大部分计算和存储访问。通过研究,我们得出这两个步骤的特点,具体如下。

表2:GNN算法中聚合和合并操作的对比(来源:https://arxiv.org/abs/1908.10834

 

步骤 聚合操作 合并操作
存储访问方式 间接访问,不规则 直接访问,规则
数据重用
计算模式 动态,不规则 静态,规则
计算量
性能瓶颈 存储 计算

 

可以看出,聚合操作和合并操作在计算和存储访问模式上有着完全不同的需求。聚合操作涉及相邻节点的采样。然而,图形是一种非欧几里得数据类型——它的大小和维度是不确定且无序,矩阵稀疏,节点位置随机。因此,存储访问是不规则的,并且难以重复利用数据。

在合并操作中,输入数据是聚合结果(节点的低维表示)和权重矩阵。它的大小和维度是固定的,具有线性存储位置。因此对存储访问没有挑战,但是矩阵的计算量非常大。

基于上述分析,我们决定在GNN内核加速器设计中选择使用两种不同的硬件结构来分别处理聚合和合并操作(如下图示):

聚合器——通过单指令多数据(SIMD)处理器阵列,对图形相邻节点进行采样和聚合。单指令可以预定义为mean()平均值计算,或其他适用的聚合函数;多数据是指单次mean()均值计算中需要多个相邻节点的特征数据作为输入,这些数据来自子图采样器。SIMD处理器阵列通过调度器Agg Scheduler进行负载平衡。子图采样器通过NoC从GDDR6或DDR4读回的邻接矩阵和节点特征数据h0v分别缓存在邻接列表缓冲区(Adjacent List Buffer)和节点特征缓冲区(Node Feature Buffer)。聚合的结果hkN(v)存储在聚合缓冲区(Aggregation Buffer)中。

合并器——通过脉动矩阵PE对聚合结果进行卷积运算。卷积核是Wk权重矩阵。卷积结果由ReLU激活函数进行非线性处理,同时也存储在Partial Sum Buffer中,以用于下一轮迭代。

7GNN内核功能框图

合并结果经过L2BN标准化处理后,即为最终的节点表示hkv。在一个典型的节点分类预测应用中,节点表示hkv可以通过一个全连接层(FC)来获取节点的分类标签。这个过程是传统的机器学习处理方法之一,在GraphSAGE文献资料中没有体现,这个功能也没有包含在这个架构中。

结论

本白皮书探讨了GraphSAGE GNN算法的数学原理,并从多个角度分析了GNN加速器设计中的技术挑战。通过分析问题并在架构层面逐一解决,提出了一种架构,利用Achronix Speedster7t AC7t1500 FPGA器件提供的具有竞争性的优势,创建了一种高度可扩展的、能够提供卓越性能的GNN加速解决方案。

责编:Luffy Liu

阅读全文,请先
您可能感兴趣
以市值860亿美元计算,英特尔已跌出全球十大芯片制造商之列。它是今年费城芯片指数中表现第二差的公司……
《纽约时报》近日报道称,尽管美国对俄罗斯实施了严格的芯片出口限制,但俄罗斯仍在其导弹系统中大量使用来自 AMD、德州仪器、美光和英特尔等美国公司的芯片。
AMD官宣AMD 总裁 Victor Peng即将退休,将于 2024 年 8 月 30 日退休。在此期间,Victor Peng继续担任 AMD 执行团队的顾问,并支持过渡,直至退休。
近日有外媒报道称,头字节跳动与美国博通达成合作,共同研发先进的5纳米定制化AI芯片。6月24日晚间,字节跳动对问询媒体表示,该消息不实。
与前代产品AMD Alveo U55C计算加速卡相比,Alveo V80的逻辑密度至高翻倍、存储器带宽至高翻倍,且网络带宽可高至4倍,可以实现强大的计算集群,也不再需要DDR4或其他外部芯片,从而优化了卡、服务器数量以及机架空间。
世界半导体贸易统计组织(WSTS)的最新预测,2024年全球半导体市场预计将实现16%的增长,市场估值达到6110亿美元。这一增长主要得益于过去两个季度的强劲表现,尤其是在计算终端市场。
• 得益于西欧、关键亚洲市场和拉丁美洲市场的增长,以及中国品牌的持续领先,全球折叠屏手机出货量在2024年第二季度同比增长了48%。 • 荣耀凭借其在西欧特别强劲的表现,成为最大的贡献者,成为该地区排名第一的品牌。 • 摩托罗拉的Razr 40系列在北美和拉丁美洲表现良好,为其手机厂商的出货量贡献了三位数的同比增长。 • 我们预计,头部中国手机品牌厂商的不断增加将至少在短期内抑制三星Z6系列在第三季度的发布。
AI技术的发展极大地推动了对先进封装技术的需求,在高密度,高速度,高带宽这“三高”方面提出了严苛的要求。
奕斯伟计算2024首届开发者伙伴大会以“绿色、开放、融合”为主题,从技术创新、产品应用、生态建设等方面,向开发者、行业伙伴等相关方发出开放合作倡议,加速RISC-V在各行各业的深度融合和应用落地,共同推动RISC-V新一代数字基础设施生态创新和产业发展。
2024年 Canalys 中国云计算渠道领导力矩阵冠军厂商分别是:阿里云、华为云和亚马逊云科技(AWS)
文|沪上阿YI路特斯如今处在一个什么样的地位?吉利控股集团高级副总裁、路特斯集团首席执行官冯擎峰一直有着清晰的认知:“这个品牌的挑战依然非常大。首先,整个中国市场豪华汽车整体数据下滑了30%~40%,
周二,捷普科技(Jabil)官员与印度泰米尔纳德邦代表团在泰米尔纳德邦首席部长MK Stalin的见证下,签署了一份备忘录。MK Stalin正在美国进行为期17天的访问,旨在吸引新的投资。MK St
在当今人工智能飞速发展的时代,AI Agent正以其独特的方式重塑着企业的生产运营方式。澜码科技作为AI Agent领域的先行者,其创始人兼CEO周健先生分享了对大模型与AI Agent发展现状的深刻
据市场调查机构Allied Market Research的《单晶硅晶圆市场》报告指出,2022年单晶硅晶圆市场价值为109亿美元,预计到2032年将达到201亿美元,2023年~2032年的复合年均
会议预告向世界展示中国最具创新力、领导力和品牌化的产品与技术!9月27号,“第6届国际移动机器人集成应用大会暨复合机器人峰会”将在上海举行,敬请关注!逐个击破现有痛难点。文|新战略半导体行业高标准、灵
8月28-30日,PCIM Asia 2024展在深圳举行。“行家说”进行了为期2天的探馆,合计报道了200+碳化硅相关参展企业(.点这里.)。其中,“行家说”还重点采访了骄成超声等十余家企业,深入了
8月28-30日,PCIM Asia 2024展在深圳举行。“行家说”进行了为期2天的探馆,合计报道了200+碳化硅相关参展企业(.点这里.)。其中,“行家说”还重点采访了长飞先进等众多企业,深入了解
9月6日,“智进AI•网易数智创新企业大会”在秦皇岛正式举行,300+企业高管及代表、数字化技术专家齐聚一堂,探讨当AI从技术探索迈入实际应用,如何成为推动组织无限进化的新引擎。爱分析创始人兼CEO金
近日,3个电驱动项目迎来最新进展,包括项目量产下线、投产、完成试验等,详情请看:[关注“行家说动力总成”,快速掌握产业最新动态]青山工业:大功率电驱项目下线9月5日,据“把动力传递到每一处”消息,重庆