显著特点:
• 从物联网终端设备到服务器ASIC都可扩展,运算速度从0.5到72万亿次运行/秒(TeraOPS)
• 在14nm工艺技术下运算速度可超过每瓦10万亿次运行/秒
• 完全可编程处理器支持OpenCL、OpenVX和广泛的神经网络框架(TensorFlow、Caffe、AndroidNN、ONNX、NNEF等)
• 原生支持i8、i16、FP16和FP32推理引擎加速,支持多种精度的各类神经网络拓扑结构
• 随着分级压缩(Hierarchical Compression)、软件平铺/缓存(Software Tiling/Caching)、裁剪(Pruning)、获取跳过(Fetch Skipping)以及层合并(Layer Merging)技术的引入,内存带宽需求急剧减少
• 2017年新增10家VIP8000 IP被许可方
芯原控股有限公司(VeriSilicon Holdings Co., Ltd.,简称“芯原”)日前宣布,其用途广泛且高度可扩展的神经网络推理引擎VIP8000系列已实现一系列重要的里程碑。
Jon Peddie研究所所长Jon Peddie博士表示:“人工智能和机器学习技术的采用是自个人PC时代以来计算机产业发生的最重要的事件,它将真正地变革、助力并改善我们的生活。它可被应用于IBM和Google的巨型机,也可被应用于搭载芯原神经网络处理器的微小芯片上。到2020年,我们不禁会问,曾经的我们是如何在没有AI助手的环境下生活的。”
机器学习和神经网络处理是嵌入式处理器的下一个主要市场机会。国际数据公司(IDC)预测,人工智能和机器学习方面的支出将从2016年的80亿美元增长到2020年的470亿美元。随着最新一代神经网络推理引擎IP的发布,芯原已成为该领域发展的主要推力。业界领先的VIP8000处理器持续拓展其应用范围,已从不间断电池供电的物联网终端设备应用扩展到AI服务器集群应用。
芯原VIP8000的最新升级主要针对神经网络模型推理加速,相比DSP、GPU和CPU混合处理器方案,更新后的VIP8000处理器在提高效率与推理速度的同时降低了内存带宽需求。完全可编程的VIP8000处理器达到了专用固定功能逻辑模块的性能和内存效率,并具有可定制性,且后续可在OpenCL、OpenVX和各种神经网络框架(TensorFlow、Caffe、AndroidNN、ONNX、NNEF等)上进行编程。VIP8000神经网络架构可以胜任广泛的人工智能工作负荷,同时优化了数据的内存管理。
芯原的神经网络推理引擎不仅性能优于所有传统的DSP、GPU和CPU混合系统,而且已作为成熟的IP核经由被授权方产品上市超过一年半时间。仅2017年便有10家主要的ASIC开发商经过对同类IP解决方案和SoC进行严格的基准测试后,选择了VIP。芯原的IP产品已成功地授权给广泛的终端客户,其应用涵盖先进辅助驾驶系统与无人驾驶汽车、安防监控、家庭娱乐、视觉图像处理以及服务器等。
VIP8000神经网络处理器实现了业界最高的性能与能源效率,是市场上扩展性最强的平台。这款神经网络推理引擎最近在14nm工艺下,实现了超过10 TeraOPS每瓦的功率效率,且运算速度的范围为0.5到72 TeraOPS。相较于其他处理器架构,VIP8000引入新的分级压缩、软件平铺/缓存、裁剪、获取跳过和层合并(待审批专利)技术,进一步降低了内存带宽需求。
芯原首席战略官、执行副总裁兼IP事业部总经理戴伟进(Weijin Dai)表示:“人工智能无处不在。VIP8000系列集成了正在申请专利的神经网络压缩技术,有效地提高了产品性能,从而加速了人工智能在嵌入式产品中的普及。我们正在与从嵌入式产品到服务器终端产品等各个领域的主要客户深入接触。面向各类需求挑战的应用和算法正在不断发展,我们将人工智能技术与芯原广泛的IP产品线相结合,为客户提供突破性的解决方案。人工智能将高效地创造价值。”
芯原支持广泛的神经网络架构(TensorFlow、Caffe、AndroidNN、亚马逊机器学习、ONNX、NNEF、AlexNet、VGG16、GoogLeNet、Yolo、Faster R-CNN、MobileNet、SqueezeNet、ResNet、RNN、LSTM等),同时还提供大量的软硬件解决方案,使开发人员能够创建高性能的神经网络模型以及基于机器学习的应用程序。