本文由半导体产业纵横编译自EETimes
与数字相比,模拟的计算速度和功率效率长期以来一直受到关注。过去,开发模拟系统存在许多障碍,包括模拟处理器的尺寸和成本。但最近的研究表明,将模拟计算与非易失性存储器(NVM)(如闪存)配对可以消除这些障碍,这种配对的技术称为模拟计算内存(CIM)组合。
DRAM的数字计算系统会造成过多功率的高吞吐量,而模拟CIM系统可以利用闪存的惊人密度进行数据存储和计算。这消除了在数字计算系统中访问和维护DRAM数据所带来的高功耗。通过模拟CIM方法,处理器可以通过快速和低功耗的方式操作和组合整个存储器插槽中的小电流,从而在NVM单元内执行算术运算。
因此,当数字处理系统努力应对不断增加的深度学习工作负载和更高的功耗时,模拟CIM可以执行实时处理,即使使用多个大型,复杂的深度神经网络,其功耗仅为数字处理系统的一小部分。
通过能够在闪存阵列内执行大规模并行矢量矩阵乘法和加法操作,可以获得显著的功耗优势。微小的电流通过存储神经网络权重的闪存阵列引导,矩阵乘法结果通过一系列模数转换器累积。通过利用模拟计算进行推理操作,可以消除DRAM访问和数字计算的功耗,并且可以实现总AI推理处理功耗的大幅下降。
还有许多二阶系统级效应会导致功率大幅下降。例如,当模拟计算将功耗降低多达10倍时,热管理系统可以大大简化,无需主动冷却。
模拟计算系统还具有成本优势,因为具有嵌入式NVM的处理器可以在成熟的半导体工艺节点中制造。与前沿节点相比,这些流程节点通常成本较低,并且具有更广泛的供应链可用性,其中所有容量都被少数公司消耗。此外,模拟CIM方法可以同时使用单个闪存晶体管来存储神经网络权重并执行乘法和累加运算。这在单个芯片中提供了非常密集的神经网络权重存储和高性能AI处理,但无需增加外部DRAM及其相关组件的成本。
模拟CIM系统的另一个好处是快速,它们不会受到处理器中的数字逻辑门和存储器传播的数据延迟,以及从外部DRAM写入和读出的数据影响。大规模并行矩阵操作可以在片上执行,其时间只是数字处理系统所需时间的一小部分。这种速度使模拟CIM系统成为计算密集型AI工作负载的理想选择,例如用于对象检测,分类,分割和深度估计的视频分析应用程序。
工业领域需要更快的处理速度,我们一般运行计算机视觉应用程序的机器人来提高生产率和安全性。无人机则是另一个模拟CIM将推动新型功能的市场。传统上,为无人机配备高清摄像头用于计算机视觉应用很具有挑战性,这些应用需要在本地运行复杂的AI网络,以便向控制站提供即时和相关信息。使用模拟计算的处理器可以在本地处理这些工作负载,同时还具有极高的能效,使无人机能够进行更长的飞行。
由于这些功能,我们将越来越多地看到无人机用于农业监测,检查关键基础设施,如电力和火灾损坏。
安全摄像头和监控解决方案也是模拟 CIM 处理器的理想选择。无论是否在云端进行内部部署,在传统系统中,摄像机捕获人和物体的图像,并将视频流发送到中央视频处理系统进行可视化分析;这导致了隐私和数据安全问题。更好的选择是使用经过训练的AI算法来检测特定序列如事故,犯罪或其他事件的摄像头,并且仅发送分析的元数据,或者只是发送潜在安全事件的镜头进行分析,使视频安防系统能够在边缘处理大多数数据来帮助减轻隐私问题,同时也保护了公众,这可以用在交通监控、事件检测和其他关键安全场景。
总而言之,模拟计算是AI处理的理想方法,因为它能够以更低的功耗运行,同时在小尺寸中实现低延迟。模拟计算技术的电源效率将使产品设计人员能够在未来几年内解锁新的AI应用,小型边缘设备中也不例外。
*声明:本文系原作者创作。文章内容系其个人观点,我方转载仅为分享与讨论,不代表我方赞成或认同,如有异议,请联系后台。