基于C#和OpenVINO™在英特尔独立显卡上部署PP-TinyPose模型|开发者实战

OpenCV学堂 2022-11-23 17:47

点击上方↑↑↑OpenCV学堂”关注我

来源:公众号 英特尔物联网 授权


作者:英特尔物联网行业创新大使 杨雪锋

OpenVINO 2022.2版开始支持英特尔独立显卡,还能通过“累计吞吐量”同时启动集成显卡 + 独立显卡助力全速 AI 推理。本文基于 C# 和 OpenVINO,将 PP-TinyPose 模型部署在英特尔独立显卡上。






1.1 PP-TinyPose 模型简介

PP-TinyPose 是飞桨 PaddleDetecion 针对移动端设备优化的实时关键点检测模型,可流畅地在移动端设备上执行多人姿态估计任务。PP-TinyPose 可以基于人体17个关键点数据集训练后,识别人体关键点,获得人体姿态,如图 1所示。


图 1  PP-TinyPose识别效果图


PP-TinyPose 开源项目仓库:

https://gitee.com/paddlepaddle/PaddleDetection/tree/release/2.5/configs/keypoint/tiny_pose


1.1.1

PP-TinyPose 框架

PP-TinyPose 提供了完整的人体关键点识别解决方案,主要包括行人检测以及关键点检测两部分。行人检测通过PP-PicoDet模型来实现,关键点识别通过 Lite-HRNet 骨干网络+DARK关键点矫正算法来实现,如下图所示:


图 2 PP-TinyPose人体关键点识别






1.2 构建开发环境

本文构建的开发环境,如下所示:


  • OpenVINO™:2022.2.0

  • OpenCV:4.5.5

  • Visual Studio:2022

  • C#框架:.NET 6.0

  • OpenCvSharp:OpenCvSharp4


1.2.1

下载项目完整源代码

项目所使用的源码已在完整开源,读者可以直接克隆到本地。

git clone https://gitee.com/guojin-yan/Csharp_and_OpenVINO_deploy_PP-TinyPose.git

向右滑动查看完整代码






1.3 在 C# 中调用 OpenVINORuntime API

由于 OpenVINO Runtime 只有 C++ 和 Python API 接口,需要在 C# 中通过动态链接库方式调用 OpenVINO Runtime C++ API。具体教程参考《在C#中调用OpenVINO™ 模型》,对应的参考范例:

https://github.com/guojin-yan/OpenVinoSharp.git


1.3.1

在 C# 中构建 Core 类

为了更方便的使用,可以在 C# 中,将调用细节封装到 Core 类中。根据模型推理的步骤,构建模型推理类:


(1)构造函数

public Core(string model_file, string device_name){// 初始化推理核心ptr = NativeMethods.core_init(model_file, device_name);}

向右滑动查看完整代码

在该方法中,主要是调用推理核心初始化方法,初始化推理核心,读取本地模型,将模型加载到设备、创建推理请求等模型推理步骤。


(2)设置模型输入形状

// @brief 设置推理模型的输入节点的大小// @param input_node_name 输入节点名// @param input_size 输入形状大小数组public void set_input_sharp(string input_node_name, ulong[] input_size) {// 获取输入数组长度int length = input_size.Length;if (length == 4) {// 长度为4,判断为设置图片输入的输入参数,调用设置图片形状方法ptr = NativeMethods.set_input_image_sharp(ptr, input_node_name, ref input_size[0]);}else if (length == 2) {// 长度为2,判断为设置普通数据输入的输入参数,调用设置普通数据形状方法ptr = NativeMethods.set_input_data_sharp(ptr, input_node_name, ref input_size[0]);}else {// 为防止输入发生异常,直接返回return;}}

向右滑动查看完整代码

(3)加载推理数据

  // @brief 加载推理数据        // @param input_node_name 输入节点名        // @param input_data 输入数据数组        public void load_input_data(string input_node_name, float[] input_data) {            ptr = NativeMethods.load_input_data(ptr, input_node_name, ref input_data[0]);        }        // @brief 加载图片推理数据        // @param input_node_name 输入节点名        // @param image_data 图片矩阵        // @param image_size 图片矩阵长度        public void load_input_data(string input_node_name, byte[] image_data, ulong image_size, int type) {            ptr = NativeMethods.load_image_input_data(ptr, input_node_name, ref image_data[0], image_size, type);        }

向右滑动查看完整代码

加载推理数据主要包含图片数据和普通的矩阵数据,其中对于图片的预处理,也已经在 C++ 中进行封装,保证了图片数据在传输中的稳定性。


(4)模型推理

    // @brief 模型推理        public void infer() {            ptr = NativeMethods.core_infer(ptr);        }

向右滑动查看完整代码

(5)读取推理结果数据

 // @brief 读取推理结果数据        // @param output_node_name 输出节点名        // @param data_size 输出数据长度        // @return 推理结果数组        public T[] read_infer_result<T>(string output_node_name, int data_size) {            // 获取设定类型            string t = typeof(T).ToString();            // 新建返回值数组            T[] result = new T[data_size];            if (t == "System.Int32") { // 读取数据类型为整形数据                int[] inference_result = new int[data_size];                NativeMethods.read_infer_result_I32(ptr, output_node_name, data_size, ref inference_result[0]);                result = (T[])Convert.ChangeType(inference_result, typeof(T[]));                return result;            }            else { // 读取数据类型为浮点型数据                float[] inference_result = new float[data_size];                NativeMethods.read_infer_result_F32(ptr, output_node_name, data_size, ref inference_result[0]);                result = (T[])Convert.ChangeType(inference_result, typeof(T[]));                return result;            }        }

向右滑动查看完整代码

在读取模型推理结果时,支持读取整形数据和浮点型数据。


(6)清除地址

  // @brief 删除创建的地址        public void delet() {            NativeMethods.core_delet(ptr);        }

向右滑动查看完整代码

完成上述封装后,在 C# 平台下,调用 Core 类,就可以方便实现 OpenVINO 推理程序了。






1.4 下载并转换 PP-PicoDet 模型

1.4.1

PP-PicoDet 模型简介

Picodet_s_320_lcnet_pedestrian Paddle 格式模型信息如下表所示,其默认的输入为动态形状,需要将该模型的输入形状变为静态形状。


表 1 Picodet_s_320_lcnet_pedestrian Paddle 格式模型信息


1.4.2

模型下载与转换

  • 第一步,下载模型

命令行直接输入以下模型导出代码,使用 PaddleDetecion 自带的方法,下载预训练模型并将模型转为导出格式。


导出 picodet_s_320_lcnet_pedestrian 模型:

python tools/export_model.py -c configs/picodet/application/pedestrian_detection/picodet_s_320_lcnet_pedestrian.yml -o export.benchmark=False export.nms=False weights=https://bj.bcebos.com/v1/paddledet/models/keypoint/tinypose_enhance/picodet_s_320_lcnet_pedestrian.pdparams --output_dir=output_inference

向右滑动查看完整代码

导出 picodet_s_192_lcnet_pedestrian 模型:

 python tools/export_model.py -c  configs/picodet/application/pedestrian_detection/picodet_s_192_lcnet_pedestrian.yml -o export.benchmark=False  export.nms=False  weights=https://bj.bcebos.com/v1/paddledet/models/keypoint/tinypose_enhance/picodet_s_192_lcnet_pedestrian.p dparams --output_dir=output_inference

向右滑动查看完整代码

此处导出模型的命令与我们常用的命令导出增加了两个指令:

export.benchmark=False 和 export.nms=False 

要是关闭模型后处理以及打开模型极大值抑制。如果不关闭模型后处理,模型会增加一个输入,且在模型部署时会出错。


  • 第二步,将模型转换为 ONNX 格式

该方式需要安装 paddle2onnx 和 onnxruntime 模块。导出方式比较简单,比较注意的是需要指定模型的输入形状,用于固定模型批次的大小。在命令行中输入以下指令进行转换:

paddle2onnx --model_dir output_inference/picodet_s_320_lcnet_pedestrian --model_filename model.pdmodel --params_filename model.pdiparams --input_shape_dict "{'image':[1,3,320,320]}" --opset_version 11 --save_filepicodet_s_320_lcnet_pedestrian.onnx

向右滑动查看完整代码

  • 第三步,转换为 IR 格式

利用 OpenVINO 模型优化器,可以实现将 ONNX 模型转为 IR 格式

mo --input_model picodet_s_320_lcnet_pedestrian.onnx --input_shape [1,3,256,192] --data_type FP16

向右滑动查看完整代码





1.5 下载并转换 PP-TinyPose 模型

1.5.1

 PP-TinyPose 模型简介

PP-TinyPose 模型信息如下表所示,其默认的输入为动态形状,需要将该模型的输入形状变为静态形状。


表 2 PP-TinyPose 256×192 Paddle 模型信息


1.5.2

模型下载与转换

  • 第一步,下载模型

命令行直接输入以下代码,或者浏览器输入后面的网址即可。

wget  https://bj.bcebos.com/v1/paddledet/models/keypoint/tinypose_enhance/tinypose_256x192.zip

向右滑动查看完整代码

下载好后将其解压到文件夹中,便可以获得 Paddle 格式的推理模型


  • 第二步,转换为 ONNX 格式

该方式需要安装 paddle2onnx 和 onnxruntime 模块。在命令行中输入以下指令进行转换,其中转换时需要指定 input_shape,否者推理时间会很长:

paddle2onnx --model_dir output_inference/tinypose_256_192/paddle --model_filename model.pdmodel --params_filename model.pdiparams --input_shape_dict "{'image':[1,3,256,192]}" --opset_version 11 --save_file tinypose_256_192.onnx

向右滑动查看完整代码

  • 第三步,转换为 IR 格式

利用 OpenVINO 模型优化器,可以实现将 ONNX 模型转为 IR 格式。

cd .\openvino\toolsmo --input_model paddle/model.pdmodel --input_shape [1,3,256,192] --data_type FP16

向右滑动查看完整代码





1.6 编写 OpenVINO™ 推理程序

1.6.1

实现行人检测

  • 第一步,初始化 PicoDet 行人识别类

 // 行人检测模型string mode_path_det = @"E:\Text_Model\TinyPose\picodet_v2_s_320_pedestrian\picodet_s_320_lcnet_pedestrian.onnx";// 设备名称string device_name = "CPU";PicoDet pico_det = new PicoDet(mode_path_det, device_name);

向右滑动查看完整代码

首先初始化行人识别类,将本地模型读取到内存中,并将模型加载到指定设备中。


  • 第二步,设置输入输出形状

Size size_det = new Size(320, 320);pico_det.set_shape(size_det, 2125);

向右滑动查看完整代码

根据我们使用的模型,设置模型的输入输出形状。


  • 第三步,实现行人检测

// 测试图片string image_path = @"E:\Git_space\基于Csharp和OpenVINO部署PP-TinyPose\image\demo_3.jpg";Mat image = Cv2.ImRead(image_path);List result_rect = pico_det.predict(image);

向右滑动查看完整代码

在进行模型推理时,使用 OpenCvSharp 读取图像,然后带入预测,最终获取行人预测框。最后将行人预测框绘制到图片上,如下图所示。

图 3 行人位置预测结果

1.6.2

实现人体姿态识别

  • 第一步,初始化 P 人体姿势识别 PPTinyPose 类

  // 关键点检测模型// onnx格式string mode_path_pose = @"E:\Text_Model\TinyPose\tinypose_128_96\tinypose_128_96.onnx";// 设备名称string device_name = "CPU";PPTinyPose tiny_pose = new PPTinyPose(mode_path_pose, device_name);

向右滑动查看完整代码

首先初始化人体姿势识别 PPTinyPose 类,将本地模型读取到内存中,并加载到设备上。


  • 第二步,设置输入输出形状

Size size_pose = new Size(128, 96);tiny_pose.set_shape(size_pose);

向右滑动查看完整代码

PP-TinyPose 模型输入与输出有对应关系,因此只需要设置输入尺寸


  • 第三步,实现姿势预测

// 测试图片string image_path = @"E:\Git_space\基于Csharp和OpenVINO部署PP-TinyPose\image\demo_3.jpg";Mat image = Cv2.ImRead(image_path);Mat result_image = tiny_pose.predict(image);

向右滑动查看完整代码

在进行模型推理时,使用 OpenCvSharp 读取图像,然后带入预测,最终获取人体姿势结果,如下图所示。

图 4 人体姿态绘制效果图


1.6.3

推理速度测试

本项目在蝰蛇峡谷上完成测试,CPU 为 i7-12700H,自带英特尔® 锐炬® Xe 集成显卡;独立显卡为英特尔®锐炫® A770M 独立显卡 + 16G 显存,如下图所示。

图 5 蝰蛇峡谷


测试代码已开源:

https://gitee.com/guojin-yan/Csharp_and_OpenVINO_deploy_PP-TinyPose.git


测试结果如下表所示


表 3 PP-PicoDet 与 PP-TinyPose 模型运行时间(ms)


注: 模型读取:读取本地模型,加载到设备,创建推理通道;

加载数据:将待推理数据进行处理并加载到模型输入节点;

模型推理:模型执行推理运算;

结果处理:在模型输出节点读取输出数据,并转化为我们所需要的结果数据。






1.7 总结与未来工作展望

本文完整介绍了在 C# 中基于 OpenVINO部署 PP-TinyPose 模型的完整流程,并开源了完整的项目代码。


从表3的测试结果可以看到,面对级联的小模型,由于存在数据从 CPU 传到 GPU,GPU 处理完毕后,结果从 GPU 传回 CPU 的时间消耗,独立显卡相对 CPU 并不具备明显优势。


OpenCV学堂 专注计算机视觉开发技术分享,技术框架使用,包括OpenCV,Tensorflow,Pytorch教程与案例,相关算法详解,最新CV方向论文,硬核代码干货与代码案例详解!作者在CV工程化方面深度耕耘15年,感谢您的关注!
评论
  • 嘿,咱来聊聊RISC-V MCU技术哈。 这RISC-V MCU技术呢,简单来说就是基于一个叫RISC-V的指令集架构做出的微控制器技术。RISC-V这个啊,2010年的时候,是加州大学伯克利分校的研究团队弄出来的,目的就是想搞个新的、开放的指令集架构,能跟上现代计算的需要。到了2015年,专门成立了个RISC-V基金会,让这个架构更标准,也更好地推广开了。这几年啊,这个RISC-V的生态系统发展得可快了,好多公司和机构都加入了RISC-V International,还推出了不少RISC-V
    丙丁先生 2025-01-21 12:10 112浏览
  • Ubuntu20.04默认情况下为root账号自动登录,本文介绍如何取消root账号自动登录,改为通过输入账号密码登录,使用触觉智能EVB3568鸿蒙开发板演示,搭载瑞芯微RK3568,四核A55处理器,主频2.0Ghz,1T算力NPU;支持OpenHarmony5.0及Linux、Android等操作系统,接口丰富,开发评估快人一步!添加新账号1、使用adduser命令来添加新用户,用户名以industio为例,系统会提示设置密码以及其他信息,您可以根据需要填写或跳过,命令如下:root@id
    Industio_触觉智能 2025-01-17 14:14 122浏览
  • 数字隔离芯片是一种实现电气隔离功能的集成电路,在工业自动化、汽车电子、光伏储能与电力通信等领域的电气系统中发挥着至关重要的作用。其不仅可令高、低压系统之间相互独立,提高低压系统的抗干扰能力,同时还可确保高、低压系统之间的安全交互,使系统稳定工作,并避免操作者遭受来自高压系统的电击伤害。典型数字隔离芯片的简化原理图值得一提的是,数字隔离芯片历经多年发展,其应用范围已十分广泛,凡涉及到在高、低压系统之间进行信号传输的场景中基本都需要应用到此种芯片。那么,电气工程师在进行电路设计时到底该如何评估选择一
    华普微HOPERF 2025-01-20 16:50 73浏览
  • 临近春节,各方社交及应酬也变得多起来了,甚至一月份就排满了各式约见。有的是关系好的专业朋友的周末“恳谈会”,基本是关于2025年经济预判的话题,以及如何稳定工作等话题;但更多的预约是来自几个客户老板及副总裁们的见面,他们为今年的经济预判与企业发展焦虑而来。在聊天过程中,我发现今年的聊天有个很有意思的“点”,挺多人尤其关心我到底是怎么成长成现在的多领域风格的,还能掌握一些经济趋势的分析能力,到底学过哪些专业、在企业管过哪些具体事情?单单就这个一个月内,我就重复了数次“为什么”,再辅以我上次写的:《
    牛言喵语 2025-01-22 17:10 41浏览
  • 本文介绍瑞芯微开发板/主板Android配置APK默认开启性能模式方法,开启性能模式后,APK的CPU使用优先级会有所提高。触觉智能RK3562开发板演示,搭载4核A53处理器,主频高达2.0GHz;内置独立1Tops算力NPU,可应用于物联网网关、平板电脑、智能家居、教育电子、工业显示与控制等行业。源码修改修改源码根目录下文件device/rockchip/rk3562/package_performance.xml并添加以下内容,注意"+"号为添加内容,"com.tencent.mm"为AP
    Industio_触觉智能 2025-01-17 14:09 164浏览
  •     IPC-2581是基于ODB++标准、结合PCB行业特点而指定的PCB加工文件规范。    IPC-2581旨在替代CAM350格式,成为PCB加工行业的新的工业规范。    有一些免费软件,可以查看(不可修改)IPC-2581数据文件。这些软件典型用途是工艺校核。    1. Vu2581        出品:Downstream     
    电子知识打边炉 2025-01-22 11:12 55浏览
  • 高速先生成员--黄刚这不马上就要过年了嘛,高速先生就不打算给大家上难度了,整一篇简单但很实用的文章给大伙瞧瞧好了。相信这个标题一出来,尤其对于PCB设计工程师来说,心就立马凉了半截。他们辛辛苦苦进行PCB的过孔设计,高速先生居然说设计多大的过孔他们不关心!另外估计这时候就跳出很多“挑刺”的粉丝了哈,因为翻看很多以往的文章,高速先生都表达了过孔孔径对高速性能的影响是很大的哦!咋滴,今天居然说孔径不关心了?别,别急哈,听高速先生在这篇文章中娓娓道来。首先还是要对各位设计工程师的设计表示肯定,毕竟像我
    一博科技 2025-01-21 16:17 101浏览
  • 现在为止,我们已经完成了Purple Pi OH主板的串口调试和部分配件的连接,接下来,让我们趁热打铁,完成剩余配件的连接!注:配件连接前请断开主板所有供电,避免敏感电路损坏!1.1 耳机接口主板有一路OTMP 标准四节耳机座J6,具备进行音频输出及录音功能,接入耳机后声音将优先从耳机输出,如下图所示:1.21.2 相机接口MIPI CSI 接口如上图所示,支持OV5648 和OV8858 摄像头模组。接入摄像头模组后,使用系统相机软件打开相机拍照和录像,如下图所示:1.3 以太网接口主板有一路
    Industio_触觉智能 2025-01-20 11:04 150浏览
  •  万万没想到!科幻电影中的人形机器人,正在一步步走进我们人类的日常生活中来了。1月17日,乐聚将第100台全尺寸人形机器人交付北汽越野车,再次吹响了人形机器人疯狂进厂打工的号角。无独有尔,银河通用机器人作为一家成立不到两年时间的创业公司,在短短一年多时间内推出革命性的第一代产品Galbot G1,这是一款轮式、双臂、身体可折叠的人形机器人,得到了美团战投、经纬创投、IDG资本等众多投资方的认可。作为一家成立仅仅只有两年多时间的企业,智元机器人也把机器人从梦想带进了现实。2024年8月1
    刘旷 2025-01-21 11:15 399浏览
  • 2024年是很平淡的一年,能保住饭碗就是万幸了,公司业绩不好,跳槽又不敢跳,还有一个原因就是老板对我们这些员工还是很好的,碍于人情也不能在公司困难时去雪上加霜。在工作其间遇到的大问题没有,小问题还是有不少,这里就举一两个来说一下。第一个就是,先看下下面的这个封装,你能猜出它的引脚间距是多少吗?这种排线座比较常规的是0.6mm间距(即排线是0.3mm间距)的,而这个规格也是我们用得最多的,所以我们按惯性思维来看的话,就会认为这个座子就是0.6mm间距的,这样往往就不会去细看规格书了,所以这次的运气
    wuliangu 2025-01-21 00:15 186浏览
我要评论
0
点击右上角,分享到朋友圈 我知道啦
请使用浏览器分享功能 我知道啦