随着智能互联设备的渗透,我们已来到半导体行业发展的拐点。这些智能设备充斥着我们的家庭、汽车、办公室、工厂、城市和云端。而实现无处不在的人工智能( AI )的代价在于,驱动这些设备的半导体器件所要承载的数据处理需求正呈指数级增长。
行业挑战 :传统行业定律捉襟见肘
过去五十年里推动通用处理器和计算发展的主要力量已是强弩之末——登纳德晶体管缩放比例定律( Dennard Scaling )早在21世纪初就宣告失效。大约在同一时期,RISC 架构的改进空间也已饱和。此外,单核器件性能和功耗/散热性能改进也已达到瓶颈。
虽然具备多线程的多核处理器有助于提供更高的吞吐量,但在阿姆达尔定律( Amdahl’s Law )的影响下,也在2010年代早期露出疲态。与此同时,摩尔定律开始放缓。摩尔定律的一般概念是,处理器每两年发展到一个新的工艺节点,在芯片面积减半的同时能够实现更高的性能和更低的功耗。
如今,摩尔定律已无法再提供性能、功耗和芯片面积的改进。无论做出何种努力,这三者间只能视具体应用情况优化其中之一或之二。而且发展到下一个更小的工艺节点用时也会超过两年。
随着半导体制造技术的发展步伐放缓,我们亟需足以推动行业持续发展的新动力。
架构创新:新兴技术正驱动行业变革
传统行业发展动力的减弱正鼓舞半导体行业内涌现出大量创新。其中一项日益重要的创新就是特定领域架构( DSA )的使用。
DSA是针对某个特定领域所优化的架构,例如 AI 推断。一个为优化 AI 推断而构建的 DSA 内置预先配置的逻辑、存储器和互联,以最佳地实现 AI 推断所需的处理类型——典型的 MAC 密集型数学运算。这种架构应具备灵活性,以支持在硬件中高效实现不同类型的神经网络层。
相比之下,通用处理器虽然能够执行广泛的应用,但通常它们既不能提供最佳性能,也无法提供最优功率,特别是对于像图像处理这类可以并行化的应用。就推动当今和未来计算需求的工作负载而言,其并行化程度在不断加深,常以流或“实时”的形式存在,因此需要以低时延处理。
虽然 ASSP 能够兼顾性能和功率效率,但功能固定。一旦需求发生改变,就需要更换新的芯片,从而导致大量成本、精力和时间的投入。简言之,业界对通用处理器和 ASSP 的需求将持续存在,然而随着技术演进周期不断加速,固定功能的芯片将越来越难以跟上需求的变化。
自适应计算的优势:引领行业“破局”
自适应计算以 FPGA 技术为基础,支持在芯片上动态构建 DSA。因此,自适应计算允许 DSA 随需求变化进行动态更新,从而避免受到漫长的 ASIC 设计周期和高昂的 NRE 成本的约束。随着处理的分布式水平不断提高,自适应计算不仅能够支持软件的无线( OTA )更新,也支持硬件无线更新——这一点尤为重要。例如,2011 年发射的火星探测车“好奇号”( Curiosity )和近期发射的“毅力号”( Perseverance )都采用了自适应计算。
“毅力号”将自适应计算用于其综合视觉处理器。它运用一款基于 FPGA 的平台进行构建,可以加速 AI 和非 AI 视觉任务,包括图像校正、过滤、检测和匹配。与此同时,“毅力号”发回美国航空航天局( NASA )的图像也会利用自适应计算进行处理。
如果在“毅力号”前往火星的八个月时间里,有新的算法出现或者发现了硬件缺陷,自适应计算允许技术人员通过无线或空间远程发送硬件更新,就如同软件更新一样方便快捷。在进行远程部署时,这种远程硬件更新不仅仅是攸关便利性的优化,更是一种刚需。
自适应计算能够从云端部署到边缘再部署到终端,将最新的架构创新提供给端到端应用的每一个部分。这是在多种类型的自适应计算平台的支持下得以实现的——既有数据中心内 PCIe 加速器卡上的大容量器件,也有物联网设备终端处理所需的小型低功耗器件。
自适应计算可以用来构建所有类型的优化型 DSA,从自动驾驶和实时视频流等时延敏感型应用,到 5G 信号处理和非结构化数据库数据处理,均可胜任。并且借助当今的硬件抽象工具,软件和 AI 开发者现在都能充分发挥它的优势,而无需成为硬件专家。
结论:拥抱改变,未来可期
为什么自适应计算的益处不容小觑?随着数十亿智能互联设备不断地与彼此、与数据中心“对话”,所生成、处理和消耗的数据量是惊人的,而自适应计算能够以更低的成本和功耗提供更强大的处理能力。这样一来,既可以降低最终消费者的成本,还可以降低数据中心乃至整个网络的耗电量,实现真正的双赢。在未来,对于通用处理器的需求将依然存在,但自适应器件在支持新计算时代中不断增长的 AI 处理能力需求方面将发挥至关重要的作用。
作者:Ivo Bolsens,赛灵思首席技术官( CTO )
责编:Amy Guan
本文为《电子工程专辑》2021年2月刊杂志文章,版权所有,禁止转载。点击申请免费杂志订阅