广告

神经网络DSP市场凑齐一桌麻将,Cadence Tensilica一落座就准备听牌

2017-05-22 12:03:49 邵乐峰 阅读:
神经网络技术当前正以“令人难以置信”的速度飞快演进。不仅每隔几个月就会诞生新的神经网络算法,而且在2012-2015年这短短的3年时间内,神经网络算法的复杂度也增加了16倍,远远超过摩尔定律的发展速度。
广告

Cadence公司日前针对车载、监控安防、无人机和移动/可穿戴设备应用,正式公布业界首款独立完整的神经网络处理器—Vision C5 DSP。在16纳米制程条件下,C5 DSP所占用的芯片面积不到1mm2,却可以实现1TMAC/秒的计算能力(吞吐量较Vision P6 DSP提高4倍),而且功耗远比CPU、GPU等处理器更低,适合各种嵌入式运算设备使用。

Cadence公司Tensilica事业部市场高级总监Steve Roddy表示,神经网络技术当前正以“令人难以置信”的速度飞快演进。不仅每隔几个月就会诞生新的神经网络算法,而且在2012-2015年这短短的3年时间内,神经网络算法的复杂度也增加了16倍,远远超过摩尔定律的发展速度。如果再考虑到不同应用市场对神经网络性能的差异化需求,我们“其实很难想象会有厂商愿意用2017年的参考设计硬件平台,去为2019-2020年以后出货的产品做规划。而且从市场上现有的解决方案来看,也都很难能够在低功耗和灵活性之间取得平衡。”

目前,神经网络算法开发者普遍采用通用型CPU/GPU芯片来执行新的算法。在Steve Roddy看来,尽管CPU/GPU能够提供很好的编程环境与应用设计灵活性,获得成本也远比自己开发一款ASIC芯片低廉,但这种作法更适合在数据中心和云端,对于功耗、体积和成本均受到严格限制的嵌入式设备而言其实并不合适。

“例如视频监控对实时性要求极高,如果所有数据都需要传输到数据中心才能进行处理,代价是极大的。这其中牵扯的不仅是带宽问题,安全性也不一定能得到保障。”他还列举了Google和Amazon的语音识别算法区别,“Google Voice把所有语音都放在云端进行处理,但Amazon Echo就只放置了一部分。从美国市场的反馈来看,Google Voice也确实卖不过Amazon Echo。”

下图对比了通用型CPU、GPU、神经网络硬件加速器与Vision C5 DSP在开发易用性、功耗效率、可编程性以及运算性能等四方面的优劣。Steve Roddy坚持认为,利用硬件加速器来执行神经网络算法绝对是走上了一条不归路。 因为ASIC芯片从设计到量产,再到最终应用在终端产品上通常需要几年的时间,在神经网络发展如此迅猛的情况下,除非芯片设计者能够“未卜先知”的精准预测出几年后神经网络的发展走向,否则这些产品还没上市就已经过时了。
20170522-cadence-1

除了产品开发时间的问题,利用硬件加速器与通用处理器共同执行神经网络算法,牵扯到的另一个问题是数据传输。由于神经网络会牵涉到大量数据传输,仅在通用处理器和硬件加速器 间进行数据传输就会占用相当多的处理器资源,并由此带来可观的高功耗。

以基于摄像头的视觉系统为例,目前此类系统在汽车、无人机和安防领域最为常见。这种架构需要两种最基础的视觉优化计算模式:首先,利用传统视觉算法对摄像头捕捉到的照片或图像进行增强;其次,使用基于神经网络的认知算法对物体进行检测和识别。现有的神经网络加速器解决方案皆依赖与图像DSP连接的硬件加速器,神经网络代码被分为两部分,一部分网络层运行在DSP上,卷积层则运行在硬件加速器上,直接导致架构效率低下,且耗能较高。

“这就是Cadence为什么决定推出专为神经网络算法而设计的C5 DSP处理器的根本原因。”Steve Roddy说,一款真正意义上针对嵌入式系统量身定制的高性能、通用型神经网络解决方案,不仅应该具备极低的功耗,还应拥有高度的可编程能力,以适应未来变化,降低风险。

Vision C5 DSP是专门针对神经网络进行了特定优化的DSP,可以实现全神经网络层的计算加速(卷积层、全连接层、池化层和归一化层),而不仅仅是卷积层的加速。因此,主视觉/图像DSP能力得以释放,独立运行图像增强应用,Vision C5 DSP则负责执行神经网络任务。通过移除神经网络DSP和主视觉/图像DSP之间的冗余数据传输,Vision C5 DSP的功耗远低于现有的神经网络加速器。同时,Vision C5 DSP还提供针对神经网络的单核编程模型。

20170522-cadence-2
Cadence方面提供的数据显示,C5 DSP采用128路8-bit SIMD或64路16-bit SIMD的VLIW SIMD架构,包含1024 8-bit MAC或512 16-bit MAC以确保8-bit和16-bit精度。如果基于AlexNet CNN Benchmark,Vision C5 DSP的计算速度较业界的GPU最快提高6倍;基于Inception V3 CNN benchmark,则有9倍的性能提升。

此外,Vision C5 DSP搭载了Cadence神经网络Mapping工具链,可将Caffe和TensorFlow等映射为在Vision C5 DSP上高度优化过的可执行代码上,并同时采用了多项系数压缩/解压技术,支持未来添加的新计算层、各类内核尺寸、深度和输入规格,在扩展能力方面超越了程序重编能力有限的CNN硬件加速器。

20170522-cadence-3
其实在Cadence推出C5 DSP之前,Synopsys、CEVA、VeriSilicon等厂商也都推出过神经网络DSP IP产品,为何Cadence却说自己是业界首款?Steve Roddy解释说,Vision C5 DSP是专门针对神经网络处理的,而不是像竞争对手的方案一样,需要由控制、图像处理和神经网络硬件加速器三部分共同组成。C5 DSP成功的将后两部分“合二为一”,提高了图像处理效率的同时也简化了架构。“从这个意义上来讲,我们确实是业界第一家。”
20170522-cadence-4
Roddy透露,目前已有客户正在利用C5 DSP核心开发下一代支持神经网络算法的SoC芯片。第一颗内建VISION C5 DSP 内核的SoC产品会在2018年量产出货。

本文为《电子工程专辑》原创,版权所有,转载请注明出处并附链接

EETC wechat barcode


关注最前沿的电子设计资讯,请关注“电子工程专辑微信公众号”。

本文为EET电子工程专辑 原创文章,禁止转载。请尊重知识产权,违者本司保留追究责任的权利。
邵乐峰
ASPENCORE 中国区首席分析师。
  • 四大合作揭秘新兴AI芯片设计模型 IP供应商、芯片设计服务提供商和AI专家在以AI为中心的设计价值链中的地位正变得更加突出。本文给出了四个设计用例,强调了服务于AI应用的芯片设计模型的重新调整。
  • 这款工具可以做到,AI芯片设计的一周一迭代 芯片设计周期久,决定了AI芯片如果没有在设计之初就“压对宝”,上市时就可能已经过时。有没有什么工具能大幅加速AI芯片的设计流程?
  • Arm:赋能开发者,软硬协同重塑AI计算生态 硬件若无软件支持就毫无意义。而软件始终是Arm计算平台不可或缺的一部分,其技术已经涵盖整个软件栈的各个层面。从底层固件和操作系统的开发,到与游戏引擎、开源社区和独立软件供应商(ISV)的战略合作,确保所有这些在Arm平台上都能“开机即用”。
  • 芯原汪洋:塑造智能计算未来,为AI技术应用赋能 汪洋特别提到,第十三届芯原CEO论坛五大预测之一是2028年用于端侧微调卡和推理卡的销售额将超过用于云侧的训练卡。目前,推理和端侧微调也是芯原重点关注的领域,同时也希望在这一发展趋势中寻找新的机遇。 
  • 集成电路性能应如何验证? 随着对复杂IC的需求不断增长,供应商面临着越来越大的压力,需要在尽可能短的时间内交付最高质量的IC。本文阐述了测试工程在交付定制IC以满足这一需求方面的重要性。
  • 芯粒技术标准迈向3D时代 为了解决SiP生命周期中跨多个芯粒的可测试性、可管理性和调试设计挑战,UCIe 2.0版更新的一个关键特性在于支持3D封装。
  • 为什么翻新机的价格在上涨? • 目前,iPhone在翻新市场中是最热门的商品,并将长期主导着翻新机的平均销售价格。 • 全球翻新机市场持续向高端化发展,其平均销售价格(ASP)现已超过新手机。 • 新兴市场是增长的最大驱动力,消费者对高端旗舰产品有着迫切需求。 • 由于市场固化和供应链的一些问题限制推高中国、东南亚和非洲等大市场的价格。 • 2024年,这些翻新机平均销售价格将首次超过新手机。
  • 2024三季度全球扫地机器人市场出货 从全球厂商竞争来看,三季度凭借多个新品发布,石头科技市场份额提升至16.4%,连续两季度排名全球第一……
  •  摩尔斯微电子推出MM8108:全球体积 最新Wi-Fi HaLow片上系统(SoC)为物联网的性能、效率、安全性与多功能性设立新标准,配套USB网关,可轻松实现Wi-Fi HaLow在新建及现有Wi-Fi基础设施中的快速稳健集成
  • 移远通信再扩短距离通信模组版图:Wi 其中包含Wi-Fi 7和蓝牙5.4 模组FME170Q-865、Wi-Fi 6和蓝牙5.4 模组FCS962N-LP、Wi-Fi 6和蓝牙5.3模组FCU865R 、独立Wi-Fi和蓝牙模组FGM840R、高功率Wi-Fi HaLow模组FGH100M-H……
广告
热门推荐
广告
广告
广告
EE直播间
在线研讨会
广告
广告
广告
向右滑动:上一篇 向左滑动:下一篇 我知道了