Advertisement

毕设 深度学习安全帽佩戴检测系统

阅读量:

1 前言

学长今天分享了其在机器视觉领域的毕业设计项目的进展,并着重介绍了基于深度学习的安全帽佩戴监测系统

项目运行效果:

毕业设计 深度学习安全帽佩戴检测系统

项目获取:

https://gitee.com/assistant-a/project-sharing

1 课题背景

建筑工人头部受伤通常被视为造成建筑伤亡事故的关键因素。使用安全帽是防止建筑工人遭受脑部外伤的重要手段;然而,在实际操作中发现许多工人未佩戴安全帽的现象屡见不鲜。因此,在施工现场推广一种能够自动实时检测工人的头盔佩戴情况的技术研究就显得尤为重要。传统施工现场在安全管理方面存在诸多局限性:管理范围较小;缺乏系统化管理;主要依赖于人工监督;而且难以实现全天候监控。本项目基于yolov5实现了对安全帽和危险区域的检测技术。

2 效果演示

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

3 Yolov5框架

我们采用当下YOLO系列最新版本的卷积神经网络——即YOLOv5——来进行火焰检测。Ultralytics公司于6月9日正式发布了该版本模型,并在发布仅不到两个月后便推出了这一改进版。此次发布的YC-8APlus Pro型电动四驱车完全采用了PyTorch框架进行开发。根据官方数据,在当前版本中,每张图片通过YC-8APlus Pro型电动四驱车进行推理所需的时间仅为0.007秒(即每秒140帧),而其模型参数量仅为之前 versions (如YC-8APlus Pro型电动四驱车)的大约十分之一。

目标检测架构主要包含两种类型:一种是two-stage架构(两阶段架构),另一种是一stage架构(单阶段架构)。两者的区别主要体现在两阶段架构中会包含一个region proposal过程(区域建议过程),类似于一种筛选机制:网络会对候选区域进行位置预测和类别预测;而单阶段架构则能够直接从输入图像中生成目标框及其类别信息。今天讨论的YOLO算法属于单阶段检测方法之一。YOLO代表"一次看图"技术,在该算法中神经网络只需要对输入图像进行一次扫描即可完成检测任务。该方法经历了五个不同的版本发展:其中YOLOv1首次提出并奠定了后续研究的基础;随后的版本不断优化改进了算法性能。

YOLOv5有4个版本性能如图所示:

在这里插入图片描述

网络架构图

在这里插入图片描述

该算法基于单阶段目标检测框架,在原有基础之上实现了多项创新性优化方案

输入端

在模型训练过程中, 展开了若干优化策略, 包含多通道融合增强技术, 自适应边界检测算法以及动态图像尺寸调节机制

Mosaic数据增强 :该方法的开发者同样隶属于YOLOv5团队。通过多维度缩放、切分及重组技术,在不同尺度下切割并重新排列图像片段以生成增强样本。其对小型目标物的识别精度较高

在这里插入图片描述

基准网络

融合其它检测算法中的一些新思路,主要包括:Focus结构与CSP结构;

Neck网络

在目标检测领域中,在为了更有效地提取融合特征的前提下,在Backbone以及输出层加入了一些额外的组件(这部分通常被称为Neck模块)。该模型采用了FPN与PAN相结合的结构(这种设计构成了构成目标检测网络的核心模块),并且具有重要意义。

在这里插入图片描述
在这里插入图片描述

FPN+PAN的结构

在这里插入图片描述

这种融合过程使得FPN层次能够自顶向下传递显著的高阶语义特徵(High-Order features),与此同时, 特征金字塔则能够自底向上传递精确的低阶定位特徵(Low-Order features)。两者相互配合, 通过相互配合实现不同主干层级与不同检测层级之间的特征整合

FPN+PAN源自于18年CVPR提出的PANet方法,在该研究初期主要聚焦于图像分割任务。然而,在随后的研究中,Alexey将该技术模块进行了优化与应用至Yolov4框架中,并显著提升了特征提取的效果。

Head输出层

输出层的anchor box机制在结构上与YOLOv4保持一致,在优化方面进行了重点调整的是损失函数GIOU_Loss在训练阶段进行优化以及预测框筛选策略采用DIOU_nms。

对于Head部分而言,在其特定区域分别可见一组紫色箭头所指部位上的3个不同尺寸的特征图:分别为40×40、20×20和10×10。此外,在Prediction阶段被用于预测分析的是其中包含3个关键特征图

复制代码
    ①==>40×40×255
    
    ②==>20×20×255
    
    ③==>10×10×255
在这里插入图片描述

相关代码

复制代码
    class Detect(nn.Module):

    stride = None  # strides computed during build
    onnx_dynamic = False  # ONNX export parameter
    
    def __init__(self, nc=80, anchors=(), ch=(), inplace=True):  # detection layer
        super().__init__()
        self.nc = nc  # number of classes
        self.no = nc + 5  # number of outputs per anchor
        self.nl = len(anchors)  # number of detection layers
        self.na = len(anchors[0]) // 2  # number of anchors
        self.grid = [torch.zeros(1)] * self.nl  # init grid
        self.anchor_grid = [torch.zeros(1)] * self.nl  # init anchor grid
        self.register_buffer('anchors', torch.tensor(anchors).float().view(self.nl, -1, 2))  # shape(nl,na,2)
        self.m = nn.ModuleList(nn.Conv2d(x, self.no * self.na, 1) for x in ch)  # output conv
        self.inplace = inplace  # use in-place ops (e.g. slice assignment)
    
    def forward(self, x):
        z = []  # inference output
        for i in range(self.nl):
            x[i] = self.m[i](x[i])  # conv
            bs, _, ny, nx = x[i].shape  # x(bs,255,20,20) to x(bs,3,20,20,85)
            x[i] = x[i].view(bs, self.na, self.no, ny, nx).permute(0, 1, 3, 4, 2).contiguous()
    
            if not self.training:  # inference
                if self.onnx_dynamic or self.grid[i].shape[2:4] != x[i].shape[2:4]:
                    self.grid[i], self.anchor_grid[i] = self._make_grid(nx, ny, i)
    
                y = x[i].sigmoid()
                if self.inplace:
                    y[..., 0:2] = (y[..., 0:2] * 2 - 0.5 + self.grid[i]) * self.stride[i]  # xy
                    y[..., 2:4] = (y[..., 2:4] * 2) ** 2 * self.anchor_grid[i]  # wh
                else:  # for YOLOv5 on AWS Inferentia https://github.com/ultralytics/yolov5/pull/2953
                    xy = (y[..., 0:2] * 2 - 0.5 + self.grid[i]) * self.stride[i]  # xy
                    wh = (y[..., 2:4] * 2) ** 2 * self.anchor_grid[i]  # wh
                    y = torch.cat((xy, wh, y[..., 4:]), -1)
                z.append(y.view(bs, -1, self.no))
    
        return x if self.training else (torch.cat(z, 1), x)
    
    def _make_grid(self, nx=20, ny=20, i=0):
        d = self.anchors[i].device
        if check_version(torch.__version__, '1.10.0'):  # torch>=1.10.0 meshgrid workaround for torch>=0.7 compatibility
            yv, xv = torch.meshgrid([torch.arange(ny).to(d), torch.arange(nx).to(d)], indexing='ij')
        else:
            yv, xv = torch.meshgrid([torch.arange(ny).to(d), torch.arange(nx).to(d)])
        grid = torch.stack((xv, yv), 2).expand((1, self.na, ny, nx, 2)).float()
        anchor_grid = (self.anchors[i].clone() * self.stride[i]) \
            .view((1, self.na, 1, 1, 2)).expand((1, self.na, ny, nx, 2)).float()
        return grid, anchor_grid

4 数据处理和训练

4.1 安全帽检测

人没有带安全帽

复制代码
    # 训练集和验证集的 labels 和 image 文件的位置
    train: ./score/images/train
    val: ./score/images/val
    
    # number of classes
    nc: 3
    
    # class names
    names: ['person', 'head', 'helmet']

生成与每张图片相对应的标签文件
通过运行代码工具data/gen_data/gen_head_helmet.py将 VOC 数据集转换为YOLOv5训练所需的特定格式。
完成图像标注后,请按照以下规范创建与每张图片相关的.txt文件:

  • 每一行都是一个目标
  • 类别编号从零开始(起始值为0)
  • 每行记录包含五个参数:类别编号、中心点x坐标、中心点y坐标、宽度值和高度值
  • 若坐标以像素表示,则需将x_center及宽度值除以其图像宽度;同时将y_center及高度值除以其图像高度

代码如下:

复制代码
    import numpy as np
    def convert(size, box):
    """
    将标注的 xml 文件生成的【左上角x,左上角y,右下角x,右下角y】标注转换为yolov5训练的坐标
    :param size: 图片的尺寸: [w,h]
    :param box: anchor box 的坐标 [左上角x,左上角y,右下角x,右下角y,]
    :return: 转换后的 [x,y,w,h]
    """
    
    x1 = int(box[0])
    y1 = int(box[1])
    x2 = int(box[2])
    y2 = int(box[3])
    
    dw = np.float32(1. / int(size[0]))
    dh = np.float32(1. / int(size[1]))
    
    w = x2 - x1
    h = y2 - y1
    x = x1 + (w / 2)
    y = y1 + (h / 2)
    
    x = x * dw
    w = w * dw
    y = y * dh
    h = h * dh
    return [x, y, w, h]

生成的 .txt 例子:

复制代码
    1 0.1830000086920336 0.1396396430209279 0.13400000636465847 0.15915916301310062
    1 0.5240000248886645 0.29129129834473133 0.0800000037997961 0.16816817224025726
    1 0.6060000287834555 0.29579580295830965 0.08400000398978591 0.1771771814674139
    1 0.6760000321082771 0.25375375989824533 0.10000000474974513 0.21321321837604046
    0 0.39300001866649836 0.2552552614361048 0.17800000845454633 0.2822822891175747
    0 0.7200000341981649 0.5570570705458522 0.25200001196935773 0.4294294398277998
    0 0.7720000366680324 0.2567567629739642 0.1520000072196126 0.23123123683035374

在./models文件夹中下载并复制所需的模型,并将其开头设置为数据集中的分类数量

复制代码
    # parameters
    nc: 3  # number of classes     <============ 修改这里为数据集的分类数
    depth_multiple: 0.33  # model depth multiple
    width_multiple: 0.50  # layer channel multiple
    
    # anchors
    anchors:
      - [10,13, 16,30, 33,23]  # P3/8
      - [30,61, 62,45, 59,119]  # P4/16
      - [116,90, 156,198, 373,326]  # P5/32
    
    # YOLOv5 backbone
    backbone:
      # [from, number, module, args]
      [[-1, 1, Focus, [64, 3]],  # 0-P1/2
       [-1, 1, Conv, [128, 3, 2]],  # 1-P2/4
       [-1, 3, BottleneckCSP, [128]],
       [-1, 1, Conv, [256, 3, 2]],  # 3-P3/8
       [-1, 9, BottleneckCSP, [256]],
       [-1, 1, Conv, [512, 3, 2]],  # 5-P4/16
       [-1, 9, BottleneckCSP, [512]],
       [-1, 1, Conv, [1024, 3, 2]],  # 7-P5/32
       [-1, 1, SPP, [1024, [5, 9, 13]]],
       [-1, 3, BottleneckCSP, [1024, False]],  # 9
      ]
    
    # YOLOv5 head
    head:
      [[-1, 1, Conv, [512, 1, 1]],
       [-1, 1, nn.Upsample, [None, 2, 'nearest']],
       [[-1, 6], 1, Concat, [1]],  # cat backbone P4
       [-1, 3, BottleneckCSP, [512, False]],  # 13
    
       [-1, 1, Conv, [256, 1, 1]],
       [-1, 1, nn.Upsample, [None, 2, 'nearest']],
       [[-1, 4], 1, Concat, [1]],  # cat backbone P3
       [-1, 3, BottleneckCSP, [256, False]],  # 17
    
       [-1, 1, Conv, [256, 3, 2]],
       [[-1, 14], 1, Concat, [1]],  # cat head P4
       [-1, 3, BottleneckCSP, [512, False]],  # 20
    
       [-1, 1, Conv, [512, 3, 2]],
       [[-1, 10], 1, Concat, [1]],  # cat head P5
       [-1, 3, BottleneckCSP, [1024, False]],  # 23
    
       [[17, 20, 23], 1, Detect, [nc, anchors]],  # Detect(P3, P4, P5)
      ]

在本阶段中采用了开始训练 模型架构设计,并基于预训练权重文件yolov5s.pt进行微调优化

复制代码
    python train.py --img 640 \
                --batch 16 --epochs 10 --data ./data/custom_data.yaml \
                --cfg ./models/custom_yolov5.yaml --weights ./weights/yolov5s.pt
在这里插入图片描述
在这里插入图片描述

项目运行效果:

毕业设计 深度学习安全帽佩戴检测系统

项目获取:

https://gitee.com/assistant-a/project-sharing

全部评论 (0)

还没有任何评论哟~