2024年度全球电子成就奖 / Ceva公司 / Ceva-NeuPro-Nano
长按二维码识别后,点右上角分享
Ceva-NeuPro-Nano
成功入围,正在参加评选 2024年度全球电子成就奖 - 年度 EDA/IP/软件产品
Ceva-NeuPro-Nano 是专为 TinyML 应用设计的高效、自给自足边缘 NPU,可在小占位面积内实现超低功耗和最佳性能之间的优化平衡,高效执行各种 AIoT 产品类别的 TinyML 工作负载,包括可听设备、可穿戴设备、家居音频、智能家居、智能工厂等等。Ceva-NeuPro-Nano每内核性能范围从10 GOPS到200 GOPS,设计用于实现电池供电设备上的始终在线用例,可将语音、视觉和传感用例整合到广泛的终端市场中,从而为低成本、高能效 AIoT 设备发挥TinyML的丰富潜能。
Ceva-NeuPro-Nano不是人工智能加速器,无需主机CPU/DSP即可运行。然而,它包含独立 NPU 的所有处理元素,包括代码执行和内存管理。Ceva-NeuPro-Nano 嵌入式人工智能 NPU 架构完全可编程,可高效执行神经网络、特征提取、控制代码和 DSP 代码,并支持最先进的机器学习数据类型和运算符,包括原生变换器计算、稀疏性加速和快速量化。
• 完全可编程,高效执行神经网络、特征提取、控制代码和 DSP 代码
• 支持最先进的机器学习数据类型(4、8、16 和 32 位)和众多运算符,包括原生变换器计算、快速量化和稀疏性支持,以及权重解压缩和加速
• 具有自给自足的架构,Ceva-NeuPro-Nano NPU 能够提供卓越的能效、更小的硅足迹和最佳性能

主要功能
• 完全可编程,有效执行神经网络、特征提取、信号处理、音频和控制代码
• 可扩展性能以满足广泛的用例需求,每个周期最多可配置 64 个 int8(原生 128 个 4x8)MAC
• 面向未来的架构,支持最先进的 ML 数据类型和运算符
o支持 4 位至 32 位整数
o 原生变换器计算
• 适用于所有用例的终极机器学习性能
o 加速稀疏模型推理(稀疏性加速)
o 加速非线性激活类型
o 快速量化--高达五倍的内部重新量化任务加速
• 通过 Ceva-NetSqueeze™ 实现超低内存需求
o 通过直接处理压缩模型权重,省去中间解压缩阶段,最多减少 80% 的内存占用
o 解决了目前阻碍AIoT 处理器广泛采用的关键瓶颈问题
• 通过创新的能源优化实现超低能耗
o 支持动态电压和频率扩展 - 可根据使用情况进行调整
o 通过使用权重稀疏性加速来精简计算,从而大幅降低能耗和带宽
• 完整、简单易用的 Ceva NeuPro-Studio AI SDK
o 经过优化,可与 TFLM 和 µTVM 等领先的开源人工智能推理框架无缝协作
o 预训练和优化的机器学习Model Zoo,涵盖 TinyML 语音、视觉和传感用例。
o 全面的优化运行时间程序库和现成的特定应用软件组合
• 两种 NPU 配置以满足各种用例需求
o Ceva-NPN32可进行每周期32次4x8、32次8x8、16次16x8、8次16x16、4次32x32 MPY/MAC操作
o Ceva-NPN64可进行每周期128次4x8、64次8x8、32次16x8、16 次 16x16、4次32x32 MPY/MAC操作,并利用50%权重稀疏性(稀疏性加速)实现两倍性能加速
本次投票禁止恶意刷票行为,主办方保留判断投票结果公正性、真实性的权力。本次活动解释权归AspenCore所有。