【光电智造】目标检测YOLOv5训练操作

今日光电 2023-10-16 18:01
今日光电
       有人说,20世纪是电的世纪,21世纪是光的世纪;知光解电,再小的个体都可以被赋能。欢迎来到今日光电!


----与智者为伍 为创新赋能----

1. 数据配置


1.1. 工具安装


Labelimg 是一款开源的数据标注工具,可以标注三种格式:


1.VOC标签格式,保存为xml文件

2.yolo标签格式,保存为txt文件

3.createML标签格式,保存为json格式


安装也比较简单:


$ pip3 install labelimg -i https://pypi.tuna.tsinghua.edu.cn/simple


1.2. 数据准备


1.2.1. 建立文件夹和基础文件


先在主目录建立一个 resources 文件夹,专门用来存放总的训练数据


然后在该目录下建立一个 VOC_DIY 文件夹,用于这次训练的数据文件夹


在这里面建立一个 JPEGImages 文件夹存放需要打标签的图片文件


再建立一个 Annotations 文件夹存放标注的标签文件


最后创建一个名为 predefined_classes.txt 的 txt 文件来存放所要标注的类别名称


最终结构如下:



1.2.2. 编辑类别种类


假设任务是需要一个检测人和手表的任务,那么目标只有两个


先编辑 predefined_classes.txt 文件,定义的类别种类:


personwatche


1.2.3. 放置标注图片


然后把待标注的图片放在 JPEGImages 文件夹中,这里演示只用10张:



实际应用时需要更多更好的数据,数量和质量都很重要


1.3. 数据标注


路径切换到yolov5\resources\VOC_DIY数据集文件夹中来

在该地址启动 labelimg


$ labelimg JPEGImages predefined_classes.txt


基础的配置和使用参考网上随便搜一下就好了,如《labelImg使用教程》(https://blog.csdn.net/weixin_42899627/article/details/109000509)


主要设置:


•Auto Save mode:切换到下一张图的时候,会自动保存标签。

•Display Labels:显示标注框和标签

•Advanced Mode:标注的十字架悬浮在窗口上



标注好了之后,可以在 Annotations 文件夹中查看:



1.4. 数据转换


目标检测的数据集资源标签的格式一般都是VOC(xml格式)


刚刚labelimg默认配置的也是,不过也可以自己设置为 yolo(txt格式)


现在就需要对xml格式的标签文件转换为txt文件

同时将数据集需要划分为训练集和验证集


路径切回工程主目录,建立一个 voc2yolo.py 文件实现以上所述功能


import xml.etree.ElementTree as ETimport osimport randomfrom shutil import rmtree, copyfile
classes = ["person", "watche"]
TRAIN_RATIO = 0.8VOC_PATH = 'resources/VOC_DIY/'CLEAR_HISTORICAL_DATA = True

def convert(size, box):    dw = 1. / size[0]    dh = 1. / size[1]    x = (box[0] + box[1]) / 2.0    y = (box[2] + box[3]) / 2.0    w = box[1] - box[0]    h = box[3] - box[2]    x = x * dw    w = w * dw    y = y * dh    h = h * dh    return (x, y, w, h)

def convert_annotation(image_id):    in_file = open(VOC_PATH + 'Annotations/%s.xml' % image_id)    out_file = open(VOC_PATH + 'YOLOLabels/%s.txt' % image_id, 'w')    tree = ET.parse(in_file)    root = tree.getroot()    size = root.find('size')    w = int(size.find('width').text)    h = int(size.find('height').text)
   for obj in root.iter('object'):        difficult = obj.find('difficult').text        cls = obj.find('name').text        if cls not in classes or int(difficult) == 1:            continue        cls_id = classes.index(cls)        xmlbox = obj.find('bndbox')        b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text), float(xmlbox.find('ymax').text))        bb = convert((w, h), b)        out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')    in_file.close()    out_file.close()

work_sapce_dir = os.path.join(os.getcwd(), VOC_PATH).replace('/','\\')annotation_dir = os.path.join(work_sapce_dir, "Annotations/").replace('/','\\')image_dir = os.path.join(work_sapce_dir, "JPEGImages/").replace('/','\\')
yolo_labels_dir = os.path.join(work_sapce_dir, "YOLOLabels/").replace('/','\\')yolov5_images_dir = os.path.join(work_sapce_dir, "images/").replace('/','\\')yolov5_labels_dir = os.path.join(work_sapce_dir, "labels/").replace('/','\\')yolov5_images_train_dir = os.path.join(yolov5_images_dir, "train/").replace('/','\\')yolov5_images_test_dir = os.path.join(yolov5_images_dir, "val/").replace('/','\\')yolov5_labels_train_dir = os.path.join(yolov5_labels_dir, "train/").replace('/','\\')yolov5_labels_test_dir = os.path.join(yolov5_labels_dir, "val/").replace('/','\\')
dir_list = [yolo_labels_dir, yolov5_images_dir, yolov5_labels_dir,            yolov5_images_train_dir, yolov5_images_test_dir,            yolov5_labels_train_dir, yolov5_labels_test_dir]
for dir in dir_list:    if not os.path.isdir(dir):        os.mkdir(dir)    elif CLEAR_HISTORICAL_DATA is True:        rmtree(dir)        os.mkdir(dir)        print("Clean {}".format(dir))
train_file = open(os.path.join(work_sapce_dir, "yolov5_train.txt"), 'w')test_file = open(os.path.join(work_sapce_dir, "yolov5_val.txt"), 'w')train_file.close()test_file.close()train_file = open(os.path.join(work_sapce_dir, "yolov5_train.txt"), 'a')test_file = open(os.path.join(work_sapce_dir, "yolov5_val.txt"), 'a')
list_imgs = os.listdir(image_dir)list_imgs.sort()random.shuffle(list_imgs)imgs_len = len(list_imgs)
for i in range(0, imgs_len):    path = os.path.join(image_dir, list_imgs[i])    if os.path.isfile(path):        image_path = image_dir + list_imgs[i]        voc_path = list_imgs[i]        (nameWithoutExtention, extention) = os.path.splitext(os.path.basename(image_path))        (voc_nameWithoutExtention, voc_extention) = os.path.splitext(os.path.basename(voc_path))        annotation_name = nameWithoutExtention + '.xml'        annotation_path = os.path.join(annotation_dir, annotation_name)        label_name = nameWithoutExtention + '.txt'        label_path = os.path.join(yolo_labels_dir, label_name)
   if i <= TRAIN_RATIO * imgs_len:        if os.path.exists(annotation_path):            train_file.write(image_path + '\n')            convert_annotation(nameWithoutExtention)            copyfile(image_path, yolov5_images_train_dir + voc_path)            copyfile(label_path, yolov5_labels_train_dir + label_name)    else:        if os.path.exists(annotation_path):            test_file.write(image_path + '\n')            convert_annotation(nameWithoutExtention)            copyfile(image_path, yolov5_images_test_dir + voc_path)            copyfile(label_path, yolov5_labels_test_dir + label_name)   print("\r进度:{:3d} %".format(int((i + 1) / imgs_len * 100)), end='', flush=True)
train_file.close()test_file.close()input("\n输入任意键退出")


运行该文件就可以得到所需的训练集和验证集了



1.5. 修改配置


1.5.1. 修改数据配置文件


编辑data目录下的相应的yaml文件


找到目录下的voc.yaml文件,将该文件复制一份,将复制的文件重命名为watche.yaml


根据项目实况保留有用信息:


path: ./resources/VOC_DIYtrain: # train images (relative to 'path')  8 images  - images/trainval: # val images (relative to 'path')  2 images  - images/val
# Classesnc: 2  # number of classesnames: ['person', 'watche']  # class names


1.5.2. 修改模型配置文件


由于该项目使用的是yolov5s.pt这个预训练权重,所以要使用models目录下的yolov5s.yaml文件中的相应参数


将yolov5s.yaml文件复制一份,然后将其重命名为yolov5_watche.yaml


根据项目实况改个;类型数量就好了:


# nc: 80  # number of classesnc: 2  # number of classes



2. 训练配置


训练是利用 train.py 文件


2.1. 参数设置


同《YOLOv5 使用入门》一样,主要还是看参数设置:


def parse_opt(known=False):    parser = argparse.ArgumentParser()    parser.add_argument('--weights', type=str, default=ROOT / 'yolov5s.pt', help='initial weights path')    parser.add_argument('--cfg', type=str, default='', help='model.yaml path')    parser.add_argument('--data', type=str, default=ROOT / 'data/coco128.yaml', help='dataset.yaml path')    parser.add_argument('--hyp', type=str, default=ROOT / 'data/hyps/hyp.scratch-low.yaml', help='hyperparameters path')    parser.add_argument('--epochs', type=int, default=300)    parser.add_argument('--batch-size', type=int, default=16, help='total batch size for all GPUs, -1 for autobatch')    parser.add_argument('--imgsz', '--img', '--img-size', type=int, default=640, help='train, val image size (pixels)')    parser.add_argument('--rect', action='store_true', help='rectangular training')    parser.add_argument('--resume', nargs='?', const=True, default=False, help='resume most recent training')    parser.add_argument('--nosave', action='store_true', help='only save final checkpoint')    parser.add_argument('--noval', action='store_true', help='only validate final epoch')    parser.add_argument('--noautoanchor', action='store_true', help='disable AutoAnchor')    parser.add_argument('--noplots', action='store_true', help='save no plot files')    parser.add_argument('--evolve', type=int, nargs='?', const=300, help='evolve hyperparameters for x generations')    parser.add_argument('--bucket', type=str, default='', help='gsutil bucket')    parser.add_argument('--cache', type=str, nargs='?', const='ram', help='--cache images in "ram" (default) or "disk"')    parser.add_argument('--image-weights', action='store_true', help='use weighted image selection for training')    parser.add_argument('--device', default='', help='cuda device, i.e. 0 or 0,1,2,3 or cpu')    parser.add_argument('--multi-scale', action='store_true', help='vary img-size +/- 50%%')    parser.add_argument('--single-cls', action='store_true', help='train multi-class data as single-class')    parser.add_argument('--optimizer', type=str, choices=['SGD', 'Adam', 'AdamW'], default='SGD', help='optimizer')    parser.add_argument('--sync-bn', action='store_true', help='use SyncBatchNorm, only available in DDP mode')    parser.add_argument('--workers', type=int, default=8, help='max dataloader workers (per RANK in DDP mode)')    parser.add_argument('--project', default=ROOT / 'runs/train', help='save to project/name')    parser.add_argument('--name', default='exp', help='save to project/name')    parser.add_argument('--exist-ok', action='store_true', help='existing project/name ok, do not increment')    parser.add_argument('--quad', action='store_true', help='quad dataloader')    parser.add_argument('--cos-lr', action='store_true', help='cosine LR scheduler')    parser.add_argument('--label-smoothing', type=float, default=0.0, help='Label smoothing epsilon')    parser.add_argument('--patience', type=int, default=100, help='EarlyStopping patience (epochs without improvement)')    parser.add_argument('--freeze', nargs='+', type=int, default=[0], help='Freeze layers: backbone=10, first3=0 1 2')    parser.add_argument('--save-period', type=int, default=-1, help='Save checkpoint every x epochs (disabled if < 1)')    parser.add_argument('--local_rank', type=int, default=-1, help='DDP parameter, do not modify')
   # Weights & Biases arguments    parser.add_argument('--entity', default=None, help='W&B: Entity')    parser.add_argument('--upload_dataset', nargs='?', const=True, default=False, help='W&B: Upload data, "val" option')    parser.add_argument('--bbox_interval', type=int, default=-1, help='W&B: Set bounding-box image logging interval')    parser.add_argument('--artifact_alias', type=str, default='latest', help='W&B: Version of dataset artifact to use')
   opt = parser.parse_known_args()[0] if known else parser.parse_args()    return opt



将权重路径、权重配置和数据集配置文件路径修改


parser.add_argument('--weights', type=str, default=ROOT / 'weights/yolov5s.pt', help='initial weights path')parser.add_argument('--cfg', type=str, default=ROOT / 'models/yolov5s_watche.yaml', help='model.yaml path')parser.add_argument('--data', type=str, default=ROOT / 'data/watche.yaml', help='dataset.yaml path')


还有需要改动的一般就是训练次数、批次大小和工作核心数了


parser.add_argument('--epochs', type=int, default=300)parser.add_argument('--batch-size', type=int, default=16, help='total batch size for all GPUs, -1 for autobatch')parser.add_argument('--workers', type=int, default=8, help='max dataloader workers (per RANK in DDP mode)')


2.2. 执行训练


配置好后,直接执行


$ python train.py


期间可以用 tensorboard 查看参数


$ tensorboard --logdir=runs/train


复制显示的网址地址,在浏览器打开查看训练过程




3. 检测效果


训练过程数据和模型存放在 runs\train\exp 文件夹中



一个为最优的权重文件 best.pt,一个为最后一轮训练的权重文件 last.pt


在训练过程中大小在50M左右,不过训完成后处理为14M左右


参考 《YOLOv5 使用入门》(https://joveh-h.blog.csdn.net/article/details/125206372),利用验证集的图片数据、刚训练好的模型和数据集配置进行检测:


$ python detect.py --source=resources/VOC_DIY/images/val/7.jpg  --weights=runs/train/exp/weights/best.pt --data=data/watche.yaml


效果还是可以的



cls:1, xywh:[0.7656546235084534, 0.6132478713989258, 0.14231498539447784, 0.06410256773233414], conf:0.77cls:0, xywh:[0.4962049424648285, 0.5197649598121643, 0.7267552018165588, 0.6314102411270142], conf:0.78


版权声明:本文为CSDN博主「氢键H-H」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。

原文链接:

https://blog.csdn.net/qq_32618327/article/details/125225366

来源:新机器视觉


申明:感谢原创作者的辛勤付出。本号转载的文章均会在文中注明,若遇到版权问题请联系我们处理。


 

----与智者为伍 为创新赋能----


【说明】欢迎企业和个人洽谈合作,投稿发文。欢迎联系我们
诚招运营合伙人 ,对新媒体感兴趣,对光电产业和行业感兴趣。非常有意者通过以下方式联我们!条件待遇面谈
投稿丨合作丨咨询

联系邮箱:uestcwxd@126.com

QQ:493826566


评论
  • 2025年2月26日,广州】全球领先的AIoT服务商机智云正式发布“Gokit5 AI智能体开发板”,该产品作为行业首个全栈式AIoT开发中枢,深度融合火山引擎云原生架构、豆包多模态大模型、扣子智能体平台和机智云Aiot开发平台,首次实现智能体开发全流程工业化生产模式。通过「扣子+机智云」双引擎协同架构与API开放生态,开发者仅需半天即可完成智能体开发、测试、发布到硬件应用的全流程,标志着智能体开发进入分钟级响应时代。一、开发框架零代码部署,构建高效开发生态Gokit5 AI智能体开发板采用 “
    机智云物联网 2025-02-26 19:01 112浏览
  • 本文介绍Linux系统主板/开发板(适用Debian10/11、lubuntu系统),安装中文环境和中文输入法。触觉智能EVB3588开发板演示,搭载了瑞芯微RK3588芯片,八核处理器,6T高算力NPU;音视频接口、通信接口等各类接口一应俱全,可帮助企业提高产品开发效率,缩短上市时间,降低成本和设计风险。配置中文环境命令如下:sudo apt-get install locales #安装locales软件包 sudo dpkg-reconfigure locales #配置 locales
    Industio_触觉智能 2025-02-26 18:43 110浏览
  • 请移步 gitee 仓库 https://gitee.com/Newcapec_cn/LiteOS-M_V5.0.2-Release_STM32F103_CubeMX/blob/main/Docs/%E5%9F%BA%E4%BA%8ESTM32F103RCT6%E7%A7%BB%E6%A4%8DLiteOS-M-V5.0.2-Release.md基于STM32F103RCT6移植LiteOS-M-V5.0.2-Release下载源码kernel_liteos_m: OpenHarmon
    逮到一只程序猿 2025-02-27 08:56 171浏览
  • 文/郭楚妤编辑/cc孙聪颖‍开年的跨境电商行业像是贸易战疾风暴雨下的漩涡中心。不管是关税政策的频繁调整,还是国际贸易规则的大幅变动,都让企业体会到不可承受之重,后者的命运被特朗普政府攥在手心。2 月 1 日,美国政府宣布以芬太尼等问题为由,对所有中国输美商品加征 10% 关税。紧接着,美国 “最低限度” 关税豁免政策也出现反复。从取消该豁免到恢复豁免,中间仅间隔一周的时间。两项政策的调整,直接冲击了依赖直邮模式的跨境电商行业,行业面临成本飙升与模式转型的双重压力。特朗普低估关税豁免政策的冲击力在
    华尔街科技眼 2025-02-26 17:37 123浏览
  • 美国加州CEC能效跟DOE能效有什么区别?CEC/DOE是什么关系?美国加州CEC能效跟DOE能效有什么区别?CEC/DOE是什么关系?‌美国加州CEC能效认证与美国DOE能效认证在多个方面存在显著差异‌。认证范围和适用地区‌CEC能效认证‌:仅适用于在加利福尼亚州销售的电器产品。CEC认证的范围包括制冷设备、房间空调、中央空调、便携式空调、加热器、热水器、游泳池加热器、卫浴配件、光源、应急灯具、交通信号模块、灯具、洗碗机、洗衣机、干衣机、烹饪器具、电机和压缩机、变压器、外置电源、消费类电子设备
    张工nx808593 2025-02-27 18:04 29浏览
  • 文/郭楚妤编辑/cc孙聪颖‍开年的跨境电商行业像是贸易战疾风暴雨下的漩涡中心。不管是关税政策的频繁调整,还是国际贸易规则的大幅变动,都让企业体会到不可承受之重,后者的命运被特朗普政府攥在手心。2 月 1 日,美国政府宣布以芬太尼等问题为由,对所有中国输美商品加征 10% 关税。紧接着,美国 “最低限度” 关税豁免政策也出现反复。从取消该豁免到恢复豁免,中间仅间隔一周的时间。两项政策的调整,直接冲击了依赖直邮模式的跨境电商行业,行业面临成本飙升与模式转型的双重压力。特朗普低估关税豁免政策的冲击力在
    华尔街科技眼 2025-02-26 17:45 135浏览
  • RGB灯光无法同步?细致的动态光效设定反而成为产品客诉来源!随着科技的进步和消费者需求变化,电脑接口设备单一功能性已无法满足市场需求,因此在产品上增加「动态光效」的形式便应运而生,藉此吸引消费者目光。这种RGB灯光效果,不仅能增强电脑周边产品的视觉吸引力,还能为用户提供个性化的体验,展现独特自我风格。如今,笔记本电脑、键盘、鼠标、鼠标垫、耳机、显示器等多种电脑接口设备多数已配备动态光效。这些设备的灯光效果会随着音乐节奏、游戏情节或使用者的设置而变化。想象一个画面,当一名游戏玩家,按下电源开关,整
    百佳泰测试实验室 2025-02-27 14:15 113浏览
  • 本文介绍瑞芯微RK3588主板/开发板Linux系统(Ubuntu20.04/22.04),安装中文环境和中文输入法。触觉智能EVB3588开发板演示,搭载了瑞芯微RK3588芯片,八核处理器,6T高算力NPU;音视频接口、通信接口等各类接口一应俱全,可帮助企业提高产品开发效率,缩短上市时间,降低成本和设计风险。配置中文环境配置前需更新安装列表,否则安装中文时容易遇到报错,命令如下:sudo apt-get update报错示例:1、先点击settings2、点击Manage Installed
    Industio_触觉智能 2025-02-26 18:30 76浏览
  • 触觉智能分享,瑞芯微RK安卓Android主板GPIO按键配置方法,方便大家更好利用空闲IO!由触觉智能Purple Pi OH鸿蒙开发板演示,搭载了瑞芯微RK3566四核处理器,树莓派卡片电脑设计,支持安卓Android、开源鸿蒙OpenHarmony、Linux多系统,适合嵌入式开发入门学习。设备树修改空闲IO选择由下图可得当前IO是主板上一个没有用到的IO,对应的GPIO为:GPIO4_A4。设备树配置在Purple Pi OH官方代码中,设备树:ido-pi-oh3566-core.dt
    Industio_触觉智能 2025-02-26 18:24 56浏览
  • 更多生命体征指标风靡的背后都只有一个原因:更多人将健康排在人生第一顺位!“AGEs,也就是晚期糖基化终末产物,英文名Advanced Glycation End-products,是存在于我们体内的一种代谢产物” 艾迈斯欧司朗亚太区健康监测高级市场经理王亚琴说道,“相信业内的朋友都会有关注,最近该指标的热度很高,它可以用来评估人的生活方式是否健康。”据悉,AGEs是可穿戴健康监测领域的一个“萌新”指标,近来备受关注。如果站在学术角度来理解它,那么AGEs是在非酶促条件下,蛋白质、氨基酸
    艾迈斯欧司朗 2025-02-27 14:50 257浏览
  • 构建巨量的驾驶场景时,测试ADAS和AD系统面临着巨大挑战,如传统的实验设计(Design of Experiments, DoE)方法难以有效覆盖识别驾驶边缘场景案例,但这些边缘案例恰恰是进一步提升自动驾驶系统性能的关键。一、传统解决方案:静态DoE标准的DoE方案旨在系统性地探索场景的参数空间,从而确保能够实现完全的测试覆盖范围。但在边缘案例,比如暴露在潜在安全风险的场景或是ADAS系统性能极限场景时,DoE方案通常会失效,让我们看一些常见的DoE方案:1、网格搜索法(Grid)实现原理:将
    康谋 2025-02-27 10:00 141浏览
  • 应用趋势与客户需求,AI PC的未来展望随着人工智能(AI)技术的日益成熟,AI PC(人工智能个人电脑)逐渐成为消费者和企业工作中的重要工具。这类产品集成了最新的AI处理器,如NPU、CPU和GPU,并具备许多智能化功能,为用户带来更高效且直观的操作体验。AI PC的目标是提升工作和日常生活的效率,通过深度学习与自然语言处理等技术,实现更流畅的多任务处理、实时翻译、语音助手、图像生成等功能,满足现代用户对生产力和娱乐的双重需求。随着各行各业对数字转型需求的增长,AI PC也开始在各个领域中显示
    百佳泰测试实验室 2025-02-27 14:08 172浏览
  • Matter 协议,原名 CHIP(Connected Home over IP),是由苹果、谷歌、亚马逊和三星等科技巨头联合ZigBee联盟(现连接标准联盟CSA)共同推出的一套基于IP协议的智能家居连接标准,旨在打破智能家居设备之间的 “语言障碍”,实现真正的互联互通。然而,目标与现实之间总有落差,前期阶段的Matter 协议由于设备支持类型有限、设备生态协同滞后以及设备通信协议割裂等原因,并未能彻底消除智能家居中的“设备孤岛”现象,但随着2025年的到来,这些现象都将得到完美的解决。近期,
    华普微HOPERF 2025-02-27 10:32 119浏览
  • 国内首款电力级全域操作系统,由南方电网联合开放原子开源基金会重磅发布。基于开源鸿蒙OpenHarmony深度定制,构建起覆盖发、输、变、配、用,全环节的智能神经中枢。通过统一架构打破设备孤岛,实现百万级电力终端毫秒级响应,让每个电力设备都拥有自主思考能力,共同构建数字孪生体。作为鸿蒙生态核心硬件方案商,深圳触觉智能基于瑞芯微RK3568/全志T527,推出了专为电鸿OS及配套生态的核心板、工控主板等硬件解决方案,已完成电鸿系统适配!RK3568核心板:RK3568工控主板:T527核心板:T52
    Industio_触觉智能 2025-02-26 18:14 118浏览
我要评论
0
点击右上角,分享到朋友圈 我知道啦
请使用浏览器分享功能 我知道啦