为了让AI加速器在最短延迟内达到最佳精准性,特别是在自动驾驶汽车(AV)中,TFLOP(万亿次浮点运算)已经成为许多所谓大脑芯片的关键指标。然而,有专家认为这种野蛮处理方式并不可持续。在EE Times的一次独家专访中,DeepScale的首席执行官Forrest Iandola给出了其不可持续的理由,是因为AI硬件设计师所持有的许多常见的假设已经过时。

为了让AI加速器在最短延迟内达到最佳精准性,特别是在自动驾驶汽车(AV)中,TFLOP(万亿次浮点运算)已经成为许多所谓大脑芯片的关键指标。这场竞赛的选手包括英伟达的Xavier、Mobileye的EyeQ5、特斯拉的全自动驾驶(FSD)电脑芯片,以及NXP-Kalray芯片。

然而,有专家认为这种野蛮处理方式并不可持续。在EE Times的一次独家专访中,DeepScale的首席执行官Forrest Iandola给出了其不可持续的理由,是因为AI硬件设计师所持有的许多常见的假设已经过时。Iandola清楚地认识到,随着AI应用日益增多,AI供应商从中积累更多的经验,这导致不同的AI任务开始需求不同的技术方法。如果事实的确如此,AI用户购买AI技术的方式将会改变,供应商也必将做出回应。


图1

Iandola表示:就拿神经网络架构搜索(NAS)来说吧,其快速发展不仅加快优化深度神经网络(DNN)的搜索过程,并降低这一过程的成本。他相信有一种方法可以“在目标任务和目标计算平台上建立最低延迟、最高精度的DNN”,而不是依赖于更大的芯片来处理所有的AI任务。

Iandola设想未来AI芯片或传感器系统(如计算机视觉、雷达或激光雷达)供应商不仅提供硬件,而且还会提供自己的高速、高效的DNN——为应用而设计的DNN。任何给定的供应商都会为不同的计算平台匹配各自所需的DNN。如果事实真是如此,那AI竞赛中的所有赌注都将失效。

需要明确的是,目前无论是芯片公司还是传感器供应商都没有提出上述前景。甚至很少有人在特定硬件上运行有针对性的AI任务的可能性。

Iandola及其DeepScale团队最近设计了一系列DNN模型,称为“SqueezeNAS”

在最近的一篇论文中,他们声称,当在目标平台上搜索延迟时,squezeNAS“可以建立更快、更准确的模型”。这篇论文推翻了AI社区先前对NAS、乘积累加 (MAC) 运算和将ImageNet精度应用于目标任务时所做的一些假设。

DeepScale于2015年由Iandola和Kurt Keutzer教授共同创立,是一家位于加利福尼亚州山景城的初创公司,致力于开发“微型DNN”。两位联合创始人曾在加州大学伯克利分校共事。DeepScale因其快速高效的DNN研究而在科学界备受推崇。

手工设计

要想真正理解机器学习在计算机视觉方面的最新进展的意义,需要了解一下其发展历史。

还记得AlexNet 网络结构模型在2012年赢得 ImageNet 图像分类赛吗?这为研究人员打开了竞争的大门,让他们专注于ImageNet研究 ,并寻找能够在计算机视觉任务上达到最高精度的DNN,以此开展竞争。

20191011-101.jpg
图2

通常,这些计算机视觉研究人员依靠专家工程师,他们会手工设计快速和高精度DNN架构。

从2012年到2016年,他们提高了计算机视觉的准确性,但都是通过大幅增加运行DNN所需资源来实现这一目标。Iandola解释说,例如,赢得2014年ImageNet比赛冠军的VGGNet,其使用的计算量是AlexNet的10倍,参数是AlexNet的2倍。

到2016年,学术研究届发现通过增加DNN的资源需求来提高准确性是“不可持续的”。 SqueezeNet便是研究人员寻找的众多替代方案之一,由Iandola及其同事在2016年发表,它展示出在微小预算(低于5MB)参数下ImageNet的“合理的准确性”。

Squeezenet引发了两个重大变化。相对于SqueezeNet和其他早期运算而言, MobileNetV1能够大幅度减少乘积累加运算 (MAC)的数量。 Shufflenetv1是为移动端CPU实现低延迟而优化的DNN。

利用机器学习(ML)改进机器学习

如前所述,所有这些先进DNN都是通过人工设计和调整神经网络架构开发而成。由于人工流程需要专业的工程师大量的试错,这很快就成为一个成本太高、耗时太久的提议。

因而基于机器学习,实现人工神经网络设计自动化的理念,即NAS应运而生。NAS是一种搜索最佳神经网络架构的算法。

NAS改变了AI格局。Iandola称,“到2018年,NAS已经开始构建能够以较低延迟运行的DNN,并且比以前手工设计的DNN产生更高的准确性。”。”

强化学习

随后,计算机视觉界开始使用基于机器学习(ML)的强化方法——强化学习(RL)。

换句话说,“机器学习得到反馈来改进机器学习,” Iandola解释说。在基于RN的NAS下,未经训练的RL获得建议,指定层数和参数来训练DNN架构。一旦对DNN进行训练,训练运行的结果将作为反馈,从而推动RL运行更多DNN来开展训练。

经证明,基于RL的NAS是有效的。谷歌MnasNet就是一个很好的例子,它在ImageNet延迟和准确性方面都优于ShuffleNet。但它也有一个关键的弱点: 成本太高。基于RL的搜索通常需要数千个GPU天数(GPU day),以训练数百乃至数千个不同的DNN,才能生成理想的设计。“谷歌负担得起,” Iandola表示,但大多数其它公司负担不起。

现实地说,一个基于RL的NAS要训练一千个DNN,每个DNN通常需要一个GPU天数。考虑到目前亚马逊云服务平台的价格,Iandola估计,一个使用基于RL的NAS搜索所花费的云计算时间可能耗资高达7万美元。

超级网络

在这种情况下,去年年底出现了一种新的NAS类型,称为基于“超级网络”的搜索。它的典型代表包括FBNet (Facebook伯克利网络)和SqueezNet。

20191011-102.jpg
图3

Iandola解释说:“超级网络采用一步到位的方法,而不是培训1000个独立的DNN。”

例如,一个DNN有20个模块,每个模块有13个选项。若为每个模块选择一个最喜欢的选项,“你正在以10个DNN训练运行花费为代价,一次性训练一个汇集了千万亿种DNN设计的DNN,”Iandola解释说。

结果表明,基于超级网络的NAS可以在10个GPU日的搜索时间内建立DNN,其延迟和准确性优于MnasNet。 “这让搜索成本从70,000多美元减少到大约700美元亚马逊云服务GPU时间,”Iandola说道。

“10个GPU天数”的搜索时间相当于在一台如衣柜般大小的8 GPU机器上花费一天的时间,” Iandola解释说。

20191011-103.jpg
图4

过时的假设

机器学习的简短历史向我们展示神经结构搜索的出现如何为计算机视觉研究奠定了基础。但是在这个过程中,它也反驳了研究团体早期的一些假设,Iandola指出。

那么,哪些假设需要纠正呢?

Iandola称,大多数AI系统设计者认为,ImageNet分类中最精确的神经网络可以为目标任务提供最精确的骨干网络。但计算机视觉包括许多AI任务——从目标检测、分割和3D空间到目标跟踪、距离估计和自由空间等。“并非所有任务都是平等的,” Iandola强调。

ImageNet的准确性与目标任务的准确性没有太紧密的关联。“这没法保证,”他说。

看看由Iandola团队创建的SqueezeNet。Iandola解释道,这是一个小型的神经网络,它的ImageNet分类精度明显低于VGG,但在“用于识别一组图像中相似斑块的任务”时,它比VGG更准确。

随着分类任务达到极限,Iandola坚信是时候为不同的任务设计不同的神经网络了。

另一个普遍的假设是“在目标计算平台上减少乘积累加运算(MAC)将产生更低的延迟。”

然而,最近的研究表明,减少MAC与减少延迟并无太大关联。“拥有较少MAC的神经网络并不总是能够实现较低的延迟,”Iandola指出。

在Iandola的SqueezeNAS论文中,他坚持认为,不仅仅是不同的AI任务需要不同的DNN。为目标计算平台(如CPU、GPU或TPU的特定版本)选择合适的DNN也非常重要。

例如,他引用了为不同智能手机优化网络的FBNet作者的话。他们发现DNN在iPhonex上运行得很快,但在三星Galaxy S8上运行得很慢。在论文中,Iandola的团队总结道,“即使MACs的数量保持不变,不同的卷积维数也会根据处理器和内核实现决定运行得更快或更慢。”

对自动驾驶的影响

今天,DeepScale已经与多家汽车供应商建立了合作关系,包括Visteon、Hella Aglaia Mobile Vision GmbH和其它未透露名称的公司。DeepScale一直在开发微型DNN。该公司声称,他们在保证最先进的性能的同时,它们需要的计算量更少。

在SqueezNas的论文中,Iandola和他的同事解释道,其团队使用基于超级网络的NAS来设计一个用于语义分割的DNN,用于识别道路、车道、汽车和其它物体的精确形状等具体任务。“我们对NAS系统进行配置,以优化 Cityscapes语义分割数据集的高精度,同时在小型汽车级计算平台上实现低延迟。”

随着SqueezNAS的发展,DeepScale对自己的定位是:在优化DNN、AI硬件和特定AI任务之间的协同关系方面成为先行者。

随着AI芯片即将席卷市场,Iandola认为系统设计师必须明智地选择加速器。他们应该确切地考虑硬件应该执行哪种AI任务,以及硬件加速器应该在哪种神经网络上运行。

安全摄像头、自动驾驶汽车和智能手机都将使用AI芯片。考虑到每个系统所需的速度、准确性、延迟和应用程序大不相同,确定合适的硬件和NAS就变得至关重要。

Iandola表示:,对于OEM车厂来说,要把一个测试版AV变成一个商业产品,必须把目前存储在AV车后箱中的刀片服务器抽取出来。Iandola预测,汽车制造商可能会要求硬件芯片公司提供适合硬件平台的优化DNN。

对于英伟达这样的公司来说,这可能不成问题,因为它的GPU得到了一个大型软件生态系统的支持。然而,大多数其他AI硬件供应商将会出一身冷汗。

此外,随着一系列新的传感器——摄像头、激光雷达和雷达—被设计成AVs,汽车原始设备制造商将面临一些残酷的现实。例如,每个传感器可能使用不同类型的神经网络。另一个例子是,不同品牌设计的激光雷达使用不同的AI硬件。Iandola指出,“今天,无论是传感器供应商还是AI处理器公司都没有提供针对其硬件进行优化推荐的神经网络。”
Iandola表示,OEM车厂和一级零部件供应商将开始要求优化DNN,以匹配特定硬件和AI任务, 这将无法避免。“我们相信,使用NAS优化目标计算平台上的低延迟变得越来越重要。”

随着基于超级网络的NAS的出现,NAS的成本已经在下降。因此,现在可能是时候让硬件供应商开始寻找自己的优化DNN。当被问及DeepScale是否计划通过合作、授权或为AI硬件公司开发优化DNN来填补这一缺口时,Iandola说道,“我们还没有真正考虑过这个问题。”

本文同步刊登于电子工程专辑杂志2019年10月刊

责编:Yvonne Geng

阅读全文,请先
您可能感兴趣
由于在满足所有要求方面存在不同的权衡,因此很难采用一种适用于所有情况的电流检测方法。
在经历了两年多的时间后,即2024年12月2日,赛微电子通过互动平台回应投资者提问时表示:“受外部客观因素影响,公司合肥项目已停止推进。”
短期全球芯片市场数据的上调反映了 2024 年第 2 季度和第 3 季度业绩的改善,尤其是在计算领域,受AI 芯片支持的需求推动。
石头科技董事长昌敬频繁出现在社交媒体上推广其创立的极石汽车品牌,活跃表现与石头科技股价的下跌形成了鲜明对比,加剧了投资者的不满情绪……
此次发布的iQOO Neo10系列不仅在性能上进行了全面升级,还在用户体验方面引入了多项创新技术,其中再次采用汇顶科技超声波指纹方案,引发了广泛关注。
UWB技术的精准定位需要与支付系统的安全性相结合。此外,UWB无感支付需要解决多人同时通过闸机时的精准识别问题,以及防止插队和误扣费等情况。
目前,智能终端NFC功能的使用频率越来越高,面对新场景新需求,ITMA多家成员单位一起联合推动iTAP(智能无感接近式协议)标准化项目,预计25年上半年发布1.0标准,通过功能测试、兼容性测试,确保新技术产业应用。
中科院微电子所集成电路制造技术重点实验室刘明院士团队提出了一种基于记忆交叉阵列的符号知识表示解决方案,首次实验演示并验证了忆阻神经-模糊硬件系统在无监督、有监督和迁移学习任务中的应用……
C&K Switches EITS系列直角照明轻触开关提供表面贴装 PIP 端子和标准通孔配置,为电信、数据中心和专业音频/视频设备等广泛应用提供创新的多功能解决方案。
投身国产浪潮向上而行,英韧科技再获“中国芯”认可
来源:观察者网12月18日消息,自12月2日美国发布新一轮对华芯片出口禁令以来,不断有知情人士向外媒透露拜登政府在卸任前将采取的下一步动作。美国《纽约时报》12月16日报道称,根据知情人士以及该报查阅
‍‍12月18日,深圳雷曼光电科技股份有限公司(下称“雷曼光电”)与成都辰显光电有限公司(下称“辰显光电”)在成都正式签署战略合作协议。双方将充分发挥各自在技术创新、产品研发等方面的优势,共同推进Mi
12月18日,珠海京东方晶芯科技举行设备搬入仪式。插播:加入LED显示行业群,请加VX:hangjia188在10月31日,珠海京东方晶芯科技有限公司发布了Mini/Micro LED COB显示产品
对于华为来说,今年的重磅机型都已经发完了,而明年的机型已经在研发中,Pura 80就是期待很高的一款。有博主爆料称,华为Pura 80将会用上了豪威OV50K传感器,同时电池容量达到5600毫安时。至
万物互联的时代浪潮中,以OLED为代表的新型显示技术,已成为人机交互、智能联结的重要端口。维信诺作为中国OLED赛道的先行者和引领者,凭借自主创新,实现了我国OLED技术的自立自强,成为中国新型显示产
2024年度PlayStation游戏奖今日公布,《宇宙机器人》获得年度最佳PS5游戏,《使命召唤:黑色行动6》获得年度最佳PS4游戏。在这次评选中,《宇宙机器人》获得多个奖项,包括最佳艺术指导奖、最
近期,高科视像、新视通、江苏善行智能科技等企业持续扩充COB产能。插播:加入LED显示行业群,请加VX:hangjia188■ 高科视像:MLED新型显示面板生产项目(二期)招标12月18日,山西高科
又一地,新型储能机会来了?■ 印度:2032储能增长12倍,超60GW据印度国家银行SBI报告,印度准备大幅提升能源存储容量,预计到2032财年将增长12 倍,超60GW左右。这也将超过可再生能源本身
点击蓝字 关注我们电网和可再生能源系统向着更智能、更高效的方向发展助力优化能源分配构建更加绿色和可靠的能源未来12 月 24 日 上午 9:30 - 11:302024 德州仪器新能源基础设施技术直播
亲爱的企业用户和开发者朋友们距离2024 RT-Thread开发者大会正式开幕仅剩最后3天!还没报名的小伙伴,抓紧报名噢,12月21日不见不散!大会时间与地点时间:2024年12月21日 9:30-1