Advertisement

毕业设计 深度学习昆虫识别系统(源码+论文)

阅读量:

文章目录

  • 前言
  • 项目实施效果评估
  • 设计思路
  • 数据采集与处理流程
    • 卷积操作模块

    • 特征提取模块

    • 激活函数的选择及其影响分析

    • 分类决策模块

    • 基于TensorFlow的Keras模块构建了完整的卷积神经网络架构。

    • 5 MobileNetV2网络

    • 6 损失函数softmax 交叉熵

      • 6.1 softmax函数
      • 6.2 交叉熵损失函数
    • 7 优化器SGD

    • 8 学习率衰减策略

    • 9 最后

0 前言

近年来,在毕业设计及答辩环节中要求标准与挑战系数持续上升。传统的毕设题目往往缺乏创新性与独特性,并不能满足答辩环节的基本要求。然而,在过去两年中,我们发现有越来越多的学生向导师反馈其开发的系统无法达到预期效果。

为了帮助大家高效且轻松地完成毕业设计,学长将分享一些优质的毕业设计项目。今天将介绍。

🚩 毕业设计 深度学习昆虫识别系统(源码+论文)

🥇学长这里给一个题目综合评分(每项满分5分)

难度系数:3分
工作量:3分
创新点:4分

🧿 项目分享:见文末!

1 项目效果

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

视频效果:

毕业设计 深度学习昆虫识别系统

2 设计原理

以一个demo作为样例讲解大致原理,实际工程要更为细致复杂。

中国的农业生产面临诸多挑战,在传统农业生产模式中长期遭受病虫害的侵害。为了提高生产效率,在传统的病虫害防治工作中第一步便是对害虫进行鉴别。过去,在这种情况下人们通常依靠人工的方法来进行害虫鉴定:即通过观察害虫外貌特征并参考专业的昆虫图鉴来进行鉴别工作。这种做法虽然有效但耗时耗力而随着科技的进步这种方法已经逐渐被更加智能化的方式所取代

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

3 数据收集和处理

数据被视为深度学习的基础

  • 去除尺寸较小的图片.
  • 去除长宽比过高或过低的图片.
  • 去除灰度类型的图片.
  • 重复图片检测: 依据图像感知哈希值进行识别。

半自动化清洗包括:

  • 图像级别的清洗: 采用预先训练好的昆虫与非昆虫图像分类器对文件夹中的图片进行评分;非昆虫类图片通常会获得较低的分数;在上一阶段中使用昆虫分类器对所有图片(每个图片都已分配一个预设类别)进行预测;将预测结果中预设类别的概率值作为评分标准;那些不属于原始预设类别组的图片通常会获得较低评分;为提高清理效率,请设置阈值以去除低分图片;此外,根据评分结果重新命名这些文件,并在资源管理器中按名称排序。
  • 类别的清理: 对每一类的具体清理

手工清洗: 该操作要求人工对文件夹中的图像进行手动识别, 判断其是否属于文件夹名称所对应的物种类别. 这项任务需要具备专业的昆虫学知识, 操作起来耗费时间和精力, 并且工作起来十分单调.

4 卷积神经网络

卷积神经网络(Convolutional Neural Network, CNN)属于一类前馈型人工 neural 网络,在其架构中每一节点都能对周围区域做出响应行为。每一个 artificial neural unit 会接收特定范围内的输入信号,并通过加权求和的方式执行基本运算操作。这种 network 一般会整合卷积 layer、激活函数 layer、池化 layer 以及 fully connected layer 等关键组件构成完整的模型架构

在这里插入图片描述

4.1卷积层

卷积核相当于一个滑动窗口,示意图中3x3大小的卷积核依次划过6x6大小的输入数据中的对应区域,并与卷积核滑过区域做矩阵点乘,将所得结果依次填入对应位置即可得到右侧4x4尺寸的卷积特征图,例如划到右上角3x3所圈区域时,将进行0x0+1x1+2x1+1x1+0x0+1x1+1x0+2x0x1x1=6的计算操作,并将得到的数值填充到卷积特征的右上角。

4.2 池化层

池化操作又称为降采样,提取网络主要特征可以在达到空间不变性的效果同时,有效地减少网络参数,因而简化网络计算复杂度,防止过拟合现象的出现。在实际操作中经常使用最大池化或平均池化两种方式,如下图所示。虽然池化操作可以有效的降低参数数量,但过度池化也会导致一些图片细节的丢失,因此在搭建网络时要根据实际情况来调整池化操作。[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-UTsB7AhE-1658995487680)

4.3 激活函数:

激活函数大致可分为两大类,在卷积神经网络的早期发展阶段主要采用传统饱和性激活函数类型,其中包括sigmoid函数、tanh函数等典型代表;随着深度学习技术的进步与研究发展,在分析饱和性激活函数局限性的同时深入探讨了非饱和性激活函数的相关特性与应用方法,在这一领域中基于ReLU(Rectified Linear Unit)及其变体构建了一系列有效的神经网络模型

4.4 全连接层

在整个网络架构中扮演分类器的角色,在经过卷积层、池化层以及激活函数层后,
网络已提取输入图片中的原始数据并将其映射至隐含特徵空间。
全连接层的任务是将所学得的特徵从隐含特徵空间映射至样本标记空间。
通常涉及提取出的特徵在其图像中的位置信息以及所属类别概率等内容。
具象化隐含特徵空间的信息同样构成了图像处理的重要环节。

4.5 使用tensorflow中keras模块实现卷积神经网络

复制代码
    class CNN(tf.keras.Model):
    def __init__(self):
        super().__init__()
        self.conv1 = tf.keras.layers.Conv2D(
            filters=32,             # 卷积层神经元(卷积核)数目
            kernel_size=[5, 5],     # 感受野大小
            padding='same',         # padding策略(vaild 或 same)
            activation=tf.nn.relu   # 激活函数
        )
        self.pool1 = tf.keras.layers.MaxPool2D(pool_size=[2, 2], strides=2)
        self.conv2 = tf.keras.layers.Conv2D(
            filters=64,
            kernel_size=[5, 5],
            padding='same',
            activation=tf.nn.relu
        )
        self.pool2 = tf.keras.layers.MaxPool2D(pool_size=[2, 2], strides=2)
        self.flatten = tf.keras.layers.Reshape(target_shape=(7 * 7 * 64,))
        self.dense1 = tf.keras.layers.Dense(units=1024, activation=tf.nn.relu)
        self.dense2 = tf.keras.layers.Dense(units=10)
    
    def call(self, inputs):
        x = self.conv1(inputs)                  # [batch_size, 28, 28, 32]
        x = self.pool1(x)                       # [batch_size, 14, 14, 32]
        x = self.conv2(x)                       # [batch_size, 14, 14, 64]
        x = self.pool2(x)                       # [batch_size, 7, 7, 64]
        x = self.flatten(x)                     # [batch_size, 7 * 7 * 64]
        x = self.dense1(x)                      # [batch_size, 1024]
        x = self.dense2(x)                      # [batch_size, 10]
        output = tf.nn.softmax(x)
        return output
    
    
    python
    
    
![](https://ad.itadn.com/c/weblog/blog-img/images/2025-08-18/a2Ex58XMDTzcNnb4GKio3uWvdQhp.png)

5 MobileNetV2网络

简介

MobileNet网络作为Google最近推出的精简且性能优越的CNN架构,在准确率与延迟之间实现了权衡取舍。

主要改进点

相对于MobileNetV1,MobileNetV2 主要改进点:

  • 引入反向残差模块(Inverted Residuals),通过从低维到高维后再压缩维度的方式实现梯度信息的有效传递,在推理过程中显著降低了所需的内存占用。
  • 移除narrow layers(narrow layers)后的ReLU激活单元能够有效维持特征多样性的同时提升网络的整体表达能力。
  • 该网络采用了完全卷积设计(fully convolutional network),这一架构特点使得模型能够适应不同尺寸的输入图像;采用RELU6激活函数(RELU6 activation function)后,在低精度计算环境下具有更强的抗干扰能力。
  • The MobileNetV2 architecture incorporates inverted residual blocks, which feature a depth-wise separable convolution structure. For downsampling operations, the depth-wise convolutions can be implemented with a stride of 2.
  • 小规模模型采用较小的扩张系数(expansion factor),而大规模模型则采用了稍大一点的扩张系数(expansion factor)。根据论文建议,默认设置为5~10之间( recommendation is typically t = 6 for small models and slightly larger values for larger models)。

倒残差结构(Inverted residual block

ResNet的Bottleneck结构是降维->卷积->升维,是两边细中间粗

而MobileNetV2是先升维(6倍)-> 卷积 -> 降维,是沙漏形。

在这里插入图片描述

区别于MobileNetV1, MobileNetV2的卷积结构如下:

在这里插入图片描述

由于DW卷积未更改通道数量,在上一层通道数量较低的情况下,DW仅能在低维空间内提取特征,导致效果欠佳。因此,在V2版本中,在DW之前增加了PW层以提升维度。

该方法取消了第二PW中的AF,并采用线性激活函数。因第二PW的主要作用是降维,请勿添加ReLU6。由于高位域中显著提升了非线性的能力,在低位域可能会导致特征损坏。

在这里插入图片描述

tensorflow相关实现代码

复制代码
    import tensorflow as tf
    import numpy as np
    from tensorflow.keras import layers, Sequential, Model
    
    class ConvBNReLU(layers.Layer):
    def __init__(self, out_channel, kernel_size=3, strides=1, **kwargs):
        super(ConvBNReLU, self).__init__(**kwargs)
        self.conv = layers.Conv2D(filters=out_channel, 
                                  kernel_size=kernel_size, 
                                  strides=strides, 
                                  padding='SAME', 
                                  use_bias=False,
                                  name='Conv2d')
        self.bn = layers.BatchNormalization(momentum=0.9, epsilon=1e-5, name='BatchNorm')
        self.activation = layers.ReLU(max_value=6.0)   # ReLU6
        
    def call(self, inputs, training=False, **kargs):
        x = self.conv(inputs)
        x = self.bn(x, training=training)
        x = self.activation(x)
        
        return x
    
    
    
    class InvertedResidualBlock(layers.Layer):
    def __init__(self, in_channel, out_channel, strides, expand_ratio, **kwargs):
        super(InvertedResidualBlock, self).__init__(**kwargs)
        self.hidden_channel = in_channel * expand_ratio
        self.use_shortcut = (strides == 1) and (in_channel == out_channel)
        
        layer_list = []
        # first bottleneck does not need 1*1 conv
        if expand_ratio != 1:
            # 1x1 pointwise conv
            layer_list.append(ConvBNReLU(out_channel=self.hidden_channel, kernel_size=1, name='expand'))
        layer_list.extend([
            
            # 3x3 depthwise conv 
            layers.DepthwiseConv2D(kernel_size=3, padding='SAME', strides=strides, use_bias=False, name='depthwise'),
            layers.BatchNormalization(momentum=0.9, epsilon=1e-5, name='depthwise/BatchNorm'),
            layers.ReLU(max_value=6.0),
            
            #1x1 pointwise conv(linear) 
            # linear activation y = x -> no activation function
            layers.Conv2D(filters=out_channel, kernel_size=1, strides=1, padding='SAME', use_bias=False, name='project'),
            layers.BatchNormalization(momentum=0.9, epsilon=1e-5, name='project/BatchNorm')
        ])
        
        self.main_branch = Sequential(layer_list, name='expanded_conv')
    
    def call(self, inputs, **kargs):
        if self.use_shortcut:
            return inputs + self.main_branch(inputs)
        else:
            return self.main_branch(inputs)  
    
    
    
    
    python
    
    
![](https://ad.itadn.com/c/weblog/blog-img/images/2025-08-18/Tw5U7qjK2z8nHZXlSWfdeiVhDB0s.png)

6 损失函数softmax 交叉熵

6.1 softmax函数

Softmax函数由下列公式定义

在这里插入图片描述

softmax 的作用是把 一个序列,变成概率。

在这里插入图片描述

softmax被用作多分类任务的核心工具,在其中它被用来将多个神经元产生的输出映射至区间内部,并保证其总和恒等于1。

python实现

复制代码
    def softmax(x):
    shift_x = x - np.max(x)    # 防止输入增大时输出为nan
    exp_x = np.exp(shift_x)
    return exp_x / np.sum(exp_x)
    
    
    python

PyTorch封装的Softmax()函数

dim参数:

  • 当dim等于0时,在整个数据集上执行softmax运算
  • 当dim等于1时,在特定维度的列上应用softmax运算
  • 当dim等于-1或2时,在特定维度的行上应用softmax运算
复制代码
    import torch
    x = torch.tensor([2.0,1.0,0.1])
    x.cuda()
    outputs = torch.softmax(x,dim=0)
    print("输入:",x)
    print("输出:",outputs)
    print("输出之和:",outputs.sum())
    
    
    
    python

6.2 交叉熵损失函数

定义如下:

在这里插入图片描述

python实现

复制代码
    def cross_entropy(a, y):
    return np.sum(np.nan_to_num(-y*np.log(a)-(1-y)*np.log(1-a)))
     
    # tensorflow version
    loss = tf.reduce_mean(-tf.reduce_sum(y_*tf.log(y), reduction_indices=[1]))
     
    # numpy version
    loss = np.mean(-np.sum(y_*np.log(y), axis=1))
    
    
    python

基于PyTorch的深度学习框架实现了高效的计算能力。交叉熵损失函数涵盖了二类分类任务中的BCELoss()以及多类分类任务中的CrossEntropyLoss()。

复制代码
    # 二分类 损失函数
    loss = torch.nn.BCELoss()
    l = loss(pred,real)
    
    
    python
复制代码
    # 多分类损失函数
    loss = torch.nn.CrossEntropyLoss()
    
    
    
    python

7 优化器SGD

简介
SGD的别称为随机梯度下降法(Stochastic Gradient Descent),于1847年首次提出。在每一次迭代过程中,并非使用全部样本数据集进行计算更新参数的梯度下降方法(Gradient Descent),而是采用选取一个小批量样本集来进行梯度估计与参数更新的过程(Update Model Parameters)。该算法通过动态处理小批量数据来解决传统批量处理中可能出现的问题(Problems of Batch Processing),然而,在实际应用中仍面临自适应学习率设置困难以及容易陷入局部极小值(Challenges)等局限性(Limitations)。

在这里插入图片描述

pytorch调用方法:

复制代码
    torch.optim.SGD(params, lr=<required parameter>, momentum=0, dampening=0, weight_decay=0, nesterov=False)
    
    
    python

相关代码:

复制代码
    def step(self, closure=None):
        """Performs a single optimization step.
    
        Arguments:
            closure (callable, optional): A closure that reevaluates the model
                and returns the loss.
        """
        loss = None
        if closure is not None:
            loss = closure()
    
        for group in self.param_groups:
            weight_decay = group['weight_decay'] # 权重衰减系数
            momentum = group['momentum'] # 动量因子,0.9或0.8
            dampening = group['dampening'] # 梯度抑制因子
            nesterov = group['nesterov'] # 是否使用nesterov动量
    
            for p in group['params']:
                if p.grad is None:
                    continue
                d_p = p.grad.data
                if weight_decay != 0: # 进行正则化
                	# add_表示原处改变,d_p = d_p + weight_decay*p.data
                    d_p.add_(weight_decay, p.data)
                if momentum != 0:
                    param_state = self.state[p] # 之前的累计的数据,v(t-1)
                    # 进行动量累计计算
                    if 'momentum_buffer' not in param_state:
                        buf = param_state['momentum_buffer'] = torch.clone(d_p).detach()
                    else:
                    	# 之前的动量
                        buf = param_state['momentum_buffer']
                        # buf= buf*momentum + (1-dampening)*d_p
                        buf.mul_(momentum).add_(1 - dampening, d_p)
                    if nesterov: # 使用neterov动量
                    	# d_p= d_p + momentum*buf
                        d_p = d_p.add(momentum, buf)
                    else:
                        d_p = buf
    				# p = p - lr*d_p
                p.data.add_(-group['lr'], d_p)
    
        return loss
    
    
    
    python
    
    
![](https://ad.itadn.com/c/weblog/blog-img/images/2025-08-18/UHVnNqI7kLYg1vw5Qabif4DxC9WX.png)

8 学习率衰减策略

余弦退火衰减
这是一种带有重启机制的随机梯度下降方法,在更新网络参数的过程中可能会遇到多个局部极小值的问题。这意味着优化过程可能会停滞在一个较次优的状态中(即一个较低但非全局的最佳点)。为了防止这种情况的发生,在优化过程中一旦检测到陷入了当前的一个较次优状态,则会立即采取措施跳出该状态并继续搜索更优的解决方案直至达到全局最小值的状态。为了使模型从当前的局部极小值中脱离出来需要在发现陷入了这种状态时迅速提升学习率类似于重新启动学习过程以帮助其探索新的区域从而有可能找到更好的解决方案

多周期的余弦退火衰减示意图如下:

在这里插入图片描述

相关代码实现

复制代码
    # ----------------------------------------------------------------------- #
    # 多周期余弦退火衰减
    # ----------------------------------------------------------------------- #
    # eager模式防止graph报错
    tf.config.experimental_run_functions_eagerly(True)
    # ------------------------------------------------ #
    import math
     
    # 继承自定义学习率的类
    class CosineWarmupDecay(keras.optimizers.schedules.LearningRateSchedule):
    '''
    initial_lr: 初始的学习率
    min_lr: 学习率的最小值
    max_lr: 学习率的最大值
    warmup_step: 线性上升部分需要的step
    total_step: 第一个余弦退火周期需要对总step
    multi: 下个周期相比于上个周期调整的倍率
    print_step: 多少个step并打印一次学习率
    '''
    # 初始化
    def __init__(self, initial_lr, min_lr, warmup_step, total_step, multi, print_step):
        # 继承父类的初始化方法
        super(CosineWarmupDecay, self).__init__()
        
        # 属性分配
        self.initial_lr = tf.cast(initial_lr, dtype=tf.float32)
        self.min_lr = tf.cast(min_lr, dtype=tf.float32)
        self.warmup_step = warmup_step  # 初始为第一个周期的线性段的step
        self.total_step = total_step    # 初始为第一个周期的总step
        self.multi = multi
        self.print_step = print_step
        
        # 保存每一个step的学习率
        self.learning_rate_list = []
        # 当前步长
        self.step = 0
        
        
    # 前向传播, 训练时传入当前step,但是上面已经定义了一个,这个step用不上
    def __call__(self, step):
        
        # 如果当前step达到了当前周期末端就调整
        if  self.step>=self.total_step:
            
            # 乘上倍率因子后会有小数,这里要注意
            # 调整一个周期中线性部分的step长度
            self.warmup_step = self.warmup_step * (1 + self.multi)
            # 调整一个周期的总step长度
            self.total_step = self.total_step * (1 + self.multi)
            
            # 重置step,从线性部分重新开始
            self.step = 0
            
        # 余弦部分的计算公式
        decayed_learning_rate = self.min_lr + 0.5 * (self.initial_lr - self.min_lr) *       \
                                (1 + tf.math.cos(math.pi * (self.step-self.warmup_step) /        \
                                  (self.total_step-self.warmup_step)))
        
        # 计算线性上升部分的增长系数k
        k = (self.initial_lr - self.min_lr) / self.warmup_step 
        # 线性增长线段 y=kx+b
        warmup = k * self.step + self.min_lr
        
        # 以学习率峰值点横坐标为界,左侧是线性上升,右侧是余弦下降
        decayed_learning_rate = tf.where(self.step<self.warmup_step, warmup, decayed_learning_rate)
        
        
        # 每个epoch打印一次学习率
        if step % self.print_step == 0:
            # 打印当前step的学习率
            print('learning_rate has changed to: ', decayed_learning_rate.numpy().item())
        
        # 每个step保存一次学习率
        self.learning_rate_list.append(decayed_learning_rate.numpy().item())
     
        # 计算完当前学习率后step加一用于下一次
        self.step = self.step + 1
        
        # 返回调整后的学习率
        return decayed_learning_rate
    
    
    python
    
    
![](https://ad.itadn.com/c/weblog/blog-img/images/2025-08-18/sQD4RqLBjWtK5aNbkIifZJCMr9mP.png)

篇幅有限,更多详细设计见设计论文

9 最后

项目包含内容

在这里插入图片描述

近3万字 完整详细设计论文

在这里插入图片描述
在这里插入图片描述

🧿 项目分享:见文末!

全部评论 (0)

还没有任何评论哟~