OpenCV4.8+YOLO11C++部署推理

OpenCV学堂 2024-12-25 17:14

点击上方蓝字关注我们

微信公众号:OpenCV学堂

关注获取更多计算机视觉与深度学习知识

自从YOLOv5更新成7.0版本,YOLOv8、YOLO11推出以后,OpenCV4.6以前的版本都无法再加载导出ONNX格式模型了,只有OpenCV4.7以上版本才可以支持最新版本YOLOv5、YOLOv8、YOLO11模型的推理部署。首先看一下最新版本的YOLO11的输入与输出格式:

就会发现,跟YOLOv8输入与输出结果完全一致,没有什么改变。

推理演示截图:

代码已经全部测试过了,可以直接调用:

  1. #include

  2. #include

  3. #include

  4. std::string label_map = "D:/python/yolov5-7.0/classes.txt";

  5. int main(int argc, char** argv) {

  6. std::vector<std::string> classNames;

  7. std::ifstream fp(label_map);

  8. std::string name;

  9. while (!fp.eof()) {

  10. getline(fp, name);

  11. if (name.length()) {

  12. classNames.push_back(name);

  13. }

  14. }

  15. fp.close();

  16. std::vector<cv::Scalar> colors;

  17. colors.push_back(cv::Scalar(0, 255, 0));

  18. colors.push_back(cv::Scalar(0, 255, 255));

  19. colors.push_back(cv::Scalar(255, 255, 0));

  20. colors.push_back(cv::Scalar(255, 0, 0));

  21. colors.push_back(cv::Scalar(0, 0, 255));

  22. std::string onnxpath = "D:/projects/yolov8n.onnx";

  23. auto net = cv::dnn::readNetFromONNX(onnxpath);

  24. net.setPreferableBackend(cv::dnn::DNN_BACKEND_OPENCV);

  25. net.setPreferableTarget(cv::dnn::DNN_TARGET_CPU);

  26. cv::VideoCapture capture("D:/images/video/sample.mp4");

  27. cv::Mat frame;

  28. while (true) {

  29. bool ret = capture.read(frame);

  30. if (frame.empty()) {

  31. break;

  32. }

  33. int64 start = cv::getTickCount();

  34. // 图象预处理 - 格式化操作

  35. int w = frame.cols;

  36. int h = frame.rows;

  37. int _max = std::max(h, w);

  38. cv::Mat image = cv::Mat::zeros(cv::Size(_max, _max), CV_8UC3);

  39. cv::Rect roi(0, 0, w, h);

  40. frame.copyTo(image(roi));

  41. float x_factor = image.cols / 640.0f;

  42. float y_factor = image.rows / 640.0f;

  43. // 推理

  44. cv::Mat blob = cv::dnn::blobFromImage(image, 1 / 255.0, cv::Size(640, 640), cv::Scalar(0, 0, 0), true, false);

  45. net.setInput(blob);

  46. cv::Mat preds = net.forward();

  47. // 后处理, 1x84x8400

  48. cv::Mat outs(preds.size[1], preds.size[2], CV_32F, preds.ptr());

  49. cv::Mat det_output = outs.t();

  50. float confidence_threshold = 0.5;

  51. std::vector<cv::Rect> boxes;

  52. std::vector classIds;

  53. std::vector confidences;

  54. for (int i = 0; i < det_output.rows; i++) {

  55. cv::Mat classes_scores = det_output.row(i).colRange(4, preds.size[1]);

  56. cv::Point classIdPoint;

  57. double score;

  58. minMaxLoc(classes_scores, 0, &score, 0, &classIdPoint);

  59. // 置信度 0~1之间

  60. if (score > 0.25)

  61. {

  62. float cx = det_output.at(i, 0);

  63. float cy = det_output.at(i, 1);

  64. float ow = det_output.at(i, 2);

  65. float oh = det_output.at(i, 3);

  66. int x = static_cast((cx - 0.5 * ow) * x_factor);

  67. int y = static_cast((cy - 0.5 * oh) * y_factor);

  68. int width = static_cast(ow * x_factor);

  69. int height = static_cast(oh * y_factor);

  70. cv::Rect box;

  71. box.x = x;

  72. box.y = y;

  73. box.width = width;

  74. box.height = height;

  75. boxes.push_back(box);

  76. classIds.push_back(classIdPoint.x);

  77. confidences.push_back(score);

  78. }

  79. }

  80. // NMS

  81. std::vector indexes;

  82. cv::dnn::NMSBoxes(boxes, confidences, 0.25, 0.50, indexes);

  83. for (size_t i = 0; i < indexes.size(); i++) {

  84. int index = indexes[i];

  85. int idx = classIds[index];

  86. cv::rectangle(frame, boxes[index], colors[idx % 5], 2, 8);

  87. cv::rectangle(frame, cv::Point(boxes[index].tl().x, boxes[index].tl().y - 20),

  88. cv::Point(boxes[index].br().x, boxes[index].tl().y), cv::Scalar(255, 255, 255), -1);

  89. cv::putText(frame, classNames[idx], cv::Point(boxes[index].tl().x, boxes[index].tl().y - 10), cv::FONT_HERSHEY_SIMPLEX, .5, cv::Scalar(0, 0, 0));

  90. }

  91. float t = (cv::getTickCount() - start) / static_cast(cv::getTickFrequency());

  92. putText(frame, cv::format("FPS: %.2f", 1.0 / t), cv::Point(20, 40), cv::FONT_HERSHEY_PLAIN, 2.0, cv::Scalar(255, 0, 0), 2, 8);

  93. char c = cv::waitKey(1);

  94. if (c == 27) {

  95. break;

  96. }

  97. cv::imshow("OpenCV4.8 + YOLOv8", frame);

  98. }

  99. cv::waitKey(0);

  100. cv::destroyAllWindows();

  101. return 0;

  102. }



1

QT5 + OpenCV4入门到实战-路线图




课程简介
系统化掌握QT应用开发技能与相关软件工程知识,掌握QT桌面应用开发常用的UI组件、元数据系统、多线程、设计模式、学会基于OpenCV实验大师工具软件与工作流引擎库高效开发OpenCV算法与QT界面集成,YOLOv8系列模型多线程推理集成、完成人脸识别、读码、模板匹配、测量、Blob检测、圆检测、线段检测、轮廓查找、安防入侵检测、健身计数、电子围栏系统、乌班图嵌入式开发板QT+深度学习 + OpenCV4.8 人脸识别、自动水印移除等应用开发与移植案例。课程总结课时数超过80+,提供了超过100页详细电子文档,近万行C++代码,数十个各种QT+OpenCV+深度学习 案例,提供电子书资料。对标工作岗位,快人一步,学完就入职。

适合人群
需要掌握QT5 + OpenCV的开发者、高校高年级本科生与研究生、需要完成深度学习应用开发的开发者、上位机开发者。


优惠活动
原价:498
优惠:399
扫描即可查看课程目录


推荐阅读

OpenCV4.8+YOLOv8对象检测C++推理演示

ZXING+OpenCV打造开源条码检测应用

攻略 | 学习深度学习只需要三个月的好方法

三行代码实现 TensorRT8.6 C++ 深度学习模型部署

实战 | YOLOv8+OpenCV 实现DM码定位检测与解析

对象检测边界框损失 – 从IOU到ProbIOU

初学者必看 | 学习深度学习的五个误区


OpenCV学堂 专注计算机视觉开发技术分享,技术框架使用,包括OpenCV,Tensorflow,Pytorch教程与案例,相关算法详解,最新CV方向论文,硬核代码干货与代码案例详解!作者在CV工程化方面深度耕耘15年,感谢您的关注!
评论
  • Supernode与艾迈斯欧司朗携手,通过Belago红外LED实现精准扫地机器人避障;得益于Belago出色的红外补光功能,使扫地机器人能够大大提升其识别物体的能力,实现精准避障;Belago点阵照明器采用迷你封装,兼容标准无铅回流工艺,适用于各种3D传感平台,包括移动设备、物联网设备和机器人。全球领先的光学解决方案供应商艾迈斯欧司朗(瑞士证券交易所股票代码:AMS)近日宣布,与国内领先的多行业三维视觉方案提供商超节点创新科技(Supernode)双方联合推出采用艾迈斯欧司朗先进Belago红
    艾迈斯欧司朗 2024-12-20 18:55 222浏览
  • 汽车行业的变革正愈演愈烈,由交通工具到“第三生活空间”。业内逐渐凝聚共识:汽车的下半场在于智能化。而智能化的核心在于集成先进的传感器,以实现高等级的智能驾驶乃至自动驾驶,以及更个性、舒适、交互体验更优的智能座舱。毕马威中国《聚焦电动化下半场 智能座舱白皮书》数据指出,2026年中国智能座舱市场规模将达到2127亿元,5年复合增长率超过17%。2022年到2026年,智能座舱渗透率将从59%上升至82%。近日,在SENSOR CHINA与琻捷电子联合举办的“汽车传感系列交流会-智能传感专场”上,艾
    艾迈斯欧司朗 2024-12-20 19:45 328浏览
  • ALINX 正式发布 AMD Virtex UltraScale+ 系列 FPGA PCIe 3.0 综合开发平台 AXVU13P!这款搭载 AMD 16nm 工艺 XCVU13P 芯片的高性能开发验证平台,凭借卓越的计算能力和灵活的扩展性,专为应对复杂应用场景和高带宽需求而设计,助力技术开发者加速产品创新与部署。随着 5G、人工智能和高性能计算等领域的迅猛发展,各行业对计算能力、灵活性和高速数据传输的需求持续攀升。FPGA 凭借其高度可编程性和实时并行处理能力,已成为解决行业痛点的关
    ALINX 2024-12-20 17:44 230浏览
  • 光耦合器,也称为光隔离器,是用于电气隔离和信号传输的多功能组件。其应用之一是测量电路中的电压。本文介绍了如何利用光耦合器进行电压测量,阐明了其操作和实际用途。使用光耦合器进行电压测量的工作原理使用光耦合器进行电压测量依赖于其在通过光传输信号的同时隔离输入和输出电路的能力。该过程包括:连接到电压源光耦合器连接在电压源上。输入电压施加到光耦合器的LED,LED发出的光与施加的电压成比例。光电二极管响应LED发出的光由输出侧的光电二极管或光电晶体管检测。随着LED亮度的变化,光电二极管的电阻相应减小,
    腾恩科技-彭工 2024-12-20 16:31 229浏览
  • //```c #include "..\..\comm\AI8051U.h"  // 包含头文件,定义了硬件寄存器和常量 #include "stdio.h"              // 标准输入输出库 #include "intrins.h"         &n
    丙丁先生 2024-12-20 10:18 137浏览
  • 随着工业自动化和智能化的发展,电机控制系统正向更高精度、更快响应和更高稳定性的方向发展。高速光耦作为一种电气隔离与信号传输的核心器件,在现代电机控制中扮演着至关重要的角色。本文将详细介绍高速光耦在电机控制中的应用优势及其在实际工控系统中的重要性。高速光耦的基本原理及优势高速光耦是一种光电耦合器件,通过光信号传递电信号,实现输入输出端的电气隔离。这种隔离可以有效保护电路免受高压、电流浪涌等干扰。相比传统的光耦,高速光耦具备更快的响应速度,通常可以达到几百纳秒到几微秒级别的传输延迟。电气隔离:高速光
    晶台光耦 2024-12-20 10:18 231浏览
  • 耳机虽看似一个简单的设备,但不仅只是听音乐功能,它已经成为日常生活和专业领域中不可或缺的一部分。从个人娱乐到专业录音,再到公共和私人通讯,耳机的使用无处不在。使用高质量的耳机不仅可以提供优良的声音体验,还能在长时间使用中保护使用者听力健康。耳机产品的质量,除了验证产品是否符合法规标准,也能透过全面性的测试和认证过程,确保耳机在各方面:从音质到耐用性,再到用户舒适度,都能达到或超越行业标准。这不仅保护了消费者的投资,也提升了该公司在整个行业的产品质量和信誉!客户面临到的各种困难一家耳机制造商想要透
    百佳泰测试实验室 2024-12-20 10:37 285浏览
  • 国产数字隔离器已成为现代电子产品中的关键部件,以增强的性能和可靠性取代了传统的光耦合器。这些隔离器广泛应用于医疗设备、汽车电子、工业自动化和其他需要强大信号隔离的领域。准确测试这些设备是确保其质量和性能的基本步骤。如何测试数字隔离器测试数字隔离器需要精度和正确的工具集来评估其在各种条件下的功能和性能。以下设备对于这项任务至关重要:示波器:用于可视化信号波形并测量时序特性,如传播延迟、上升时间和下降时间。允许验证输入输出信号的完整性。频谱分析仪:测量电磁干扰(EMI)和其他频域特性。有助于识别信号
    克里雅半导体科技 2024-12-20 16:35 216浏览
  • 百佳泰特为您整理2024年12月各大Logo的最新规格信息。——————————USB▶ 百佳泰获授权进行 USB Active Cable 认证。▶ 所有符合 USB PD 3.2 标准的产品都有资格获得USB-IF 认证——————————Bluetooth®▶ Remote UPF Testing针对所有低功耗音频(LE Audio)和网格(Mesh)规范的远程互操作性测试已开放,蓝牙会员可使用该测试,这是随时测试产品的又一绝佳途径。——————————PCI Express▶ 2025年
    百佳泰测试实验室 2024-12-20 10:33 205浏览
  • 光耦固态继电器(SSR)作为现代电子控制系统中不可或缺的关键组件,正逐步取代传统机械继电器。通过利用光耦合技术,SSR不仅能够提供更高的可靠性,还能适应更加复杂和严苛的应用环境。在本文中,我们将深入探讨光耦固态继电器的工作原理、优势、挑战以及未来发展趋势。光耦固态继电器:如何工作并打破传统继电器的局限?光耦固态继电器通过光电隔离技术,实现输入信号与负载之间的电气隔离。其工作原理包括三个关键步骤:光激活:LED接收输入电流并发出与其成比例的光信号。光传输:光电传感器(如光电二极管或光电晶体管)接收
    腾恩科技-彭工 2024-12-20 16:30 179浏览
  •                                                窗        外       年底将近,空气变得格外寒冷,估计这会儿北方已经是千里
    广州铁金刚 2024-12-23 11:49 188浏览
我要评论
0
点击右上角,分享到朋友圈 我知道啦
请使用浏览器分享功能 我知道啦