继2018年底推出面向数据中心加速的自适应计算加速卡Alveo U250/U280后,赛灵思(Xilinx)持续扩展产品组合的步伐一直没有停歇,最新推出的Alveo U50系列,则被赛灵思数据中心业务部产品规划和市场营销总监Jamon Bowen称之为“业界首款可支持第四代PCIe(PCIe Gen 4)的轻量级自适应计算加速卡。”
赛灵思Alveo产品阵容
快速、灵活应变和方便易用是U50的核心特征。与U200/U250/U280系列相同,Alveo U50卡同样采用赛灵思UltraScale+架构,支持第四代PCIe和CCIX互联标准,并率先使用半高半长的外形尺寸和低于75瓦的低包络功耗。8GB高带宽存储器(HBM2)和QSFP端口则分别提供了超过400Gbps的数据传输速率和高达每秒100Gbps的网络连接速率。此外,高速网络I/O还支持包括NVMe-oF解决方案(NVM Express over Fabrics)、解耦计算存储(Computionial Storage)和专业金融服务在内的各种前沿应用。
Alveo U50系列加速卡
为什么加速在计算、网络和存储领域受到越来越多的重视?Jamon Bowen对此解释称,一方面是因为以AlexNet、GoogleNet、DenseNet为代表的领域专用架构,需要不同的硬件架构和对应的算法来实现高吞吐量、低时延和高效率;另一方面,数据中心要优化性能,需要定制数据路径、定制精度和定制存储器层级,可编程硬件在定制化加速方面具备天然优势。
以GZIP压缩为例,ZS、ZT、LZ、微软Zipline等标准层出不穷,这就需要硬件不但能够加速,还可以实现编程,一旦出现新的算法迭代,厂商就能够充分利用 FPGA的灵活性实现快速部署。
不过,数据中心开发者对FPGA编程始终带有抱怨。为此,Alveo提供了开放的平台和开发环境,让开发者能够更加便捷地使用。这意味着,Alveo平台上的开发者越多,带来的云和相关产品就会越多,从而逐步形成一个全堆栈的解决方案,继而实现原来只有在软件部分才有可能实现的硬件IP的灵活应变能力。数据显示,自2018年10月推出Alveo以来,目前已发布的应用和培训开发者数量分别是当初的2倍和4倍。
Alveo解决方案堆栈
具体来说,Alveo U50的加速解决方案具体可应用于广泛领域,其中包括以下5个领域:
1、深度学习推理加速(如语音翻译):与纯GPU相比,Alveo U50在语音翻译的性能可降低多达25倍的延迟,提高10倍的吞吐量,并能显著提高每节点的功耗效率。
2、数据分析加速(如数据库查询):运行TPC-H查询基准时,Alveo U50与存储器内的CPU相比,它每小时的吞吐量可提升4倍,还可将运营成本降低3倍。
3、计算存储加速(如压缩):与仅使用CPU的节点相比,Alveo U50将每个节点的成本降低了40%,同时它还可将压缩/解压的吞吐量提高20倍,实现更快的Hadoop(分布式计算)和大数据分析。
4、网络加速(如电子交易):与仅使用CPU的10微秒延迟相比,Alveo U50能将延时降低20%,交易时间低于500纳秒。
5、财务建模(网格计算):运行蒙特卡罗模拟(Monte Carlo simulation)时,Alveo U50的功耗效率与GPU相比提高7倍,具有更快的分析和判断效率、确定性延时和更低的运营成本。
“提供充分商业化的标准化产品,是调动IT行业积极性最重要的因素之一。”Jamon Bowen说Alveo是一个非常标准化的产品,所以开源框架很容易与Kubernetes和docker这类免费的微服务内容平台实现对接,比如Kubernetes中就直接有插件可以在系统内部反映出有Alveo加速硬件,开发者也可以把Alveo和docker配合起来,通过对Alveo进行编程而在系统中体现出加速应用。
为大规模部署而打造的堆栈
反之,如果没有这样一个标准化的产品配置,客户可能需要花费大量的投资才能够实现这样一个功能,这对于一些超大规模数据中心的应用来说是非常有必要的,既可以在云端,也可以用Alveo在本地进行加速,而且是一个非常开放式的框架,可以进行全面的加速。
- 也出芯片也出应用卡,Xilinx 和 NVIDIA 殊途同归,争相推出自家的终端产品卡,作为上游芯片商,原则上一般不跟下游品牌厂商抢生意,这是个界限,貌似现在这个界限没了