Advertisement

【Python】Understanding Convolutional Neural Networks for

阅读量:

作者:禅与计算机程序设计艺术

1.简介

在这篇文章里,我们将介绍一种利用卷积神经网络实现的目标检测方案——SSD(Single Shot MultiBox Detector)。本文将涵盖相关知识包括目标检测、卷积神经网络以及区域提议网络(RPN)等技术细节。我们的目的是通过深入理解目标检测模型的技术原理和实现方法,在实际项目中帮助读者更高效地应用这些技术并解决遇到的实际问题。

阅读时长: 60-90分钟

建议先读完基础教程:

  1. [教程] 在TensorFlow中进行图像对象检测。
  2. [逐步说明] 在TensorFlow 2中使用API进行COCO数据集的对象检测。

2.背景介绍

在计算机视觉领域中,目标检测被视为一项具有重要意义的任务。其主要目标是从图像或视频中识别出感兴趣的物体,并对这些物体进行详细分析。根据工作原理的不同,目标检测模型可分为两类:一类基于区域定位的方法(例如R-CNN和Fast R-CNN),另一类则依赖于深度学习算法(包括YOLO和SSD)。

近年来基于深度学习的目标检测技术不断涌现出来,在YOLO、SSD、Faster RCNN等众多算法中各有千秋。其中SSD最为人称道,在此我们将选取该算法作为典型案例进行深入剖析。

首先,我们要了解什么是SSD。

SSD简介

SSD为Single Shot MultiBox Detector的别名, 亦被简称为‘单发多框检测器’。其显著特点是能够一次性识别多个目标, 而无需将每个目标单独进行预测。该模型设计精炼而高效, 性能卓越, 推测速度快, 并无需进行额外训练.

SSD的工作流程如下图所示。

将输入图像划分成不同尺寸的预设尺寸的锚框(Anchor Boxes)。
对每个锚框执行分类与回归预测操作:其中分类算法用于识别该锚盒内是否存在目标物体;而回归算法则负责推算出目标物体在图像中的具体坐标信息的位置。
采用非极大值抑制(NMS)方法来去除重复的目标检测结果。
从筛选后的候选目标中精确提取出最优的目标候选。

SSD网络结构

SSD由两个主要组件组成:骨干网络和检测子网络。

1. 骨干网络

骨干网络主要由卷积层、池化层、归一化层以及激活函数组成。SSD中的骨干网络涉及VGG16、ResNet50以及MobileNet V1/V2等多种模型。

2. 检测子网络

该检测子网络由多种卷积操作单元以及最大池化单元等基础组件构成,并附加有后处理单元和分类器单元以提升识别精度。相较于基于区域的方法而言,在SSD架构中采用了更为复杂的特征提取机制——引入了额外的全连接层来计算各目标边界的偏移信息。该检测子网络主要包含以下三个功能部分:首先是对图像特征进行提取;其次是对各目标的存在概率进行评估;最后是对目标边界的回归定位。

(1) 特征提取模块

该模块由一系列卷积层与最大池化层构成。其中第一卷积层负责从输入图像中提取关键特征,在其后各卷积-最大池化组合单元则依次提取不同尺度范围内的特征信息。经过上述处理后最终生成完整的特征图矩阵。

(2) 置信度评估模块

置信度计算模块将输入的每个特征图传递给全连接层进行概率计算。其中,每个位置的概率值表示该区域是否存在物体的可能性大小。

(3) 边界框回归模块

该边界框回归模块将检测到的目标物体定位为基准框,在基准框与特征图中所对应的坐标信息基础上计算出偏移量,并估算目标物体的边界范围。

最后,将三个模块的输出整合在一起,得到最终的检测结果。

3. RPN(Region Proposal Network)

SSD采用了RPN(Region Proposal Network),用以生成候选区域。

RPN是一种多层次卷积神经网络架构,在接收输入图像数据的过程中生成不同尺度和不同比例尺寸的锚框(Anchor Boxes)。针对每一个输入图像样本,在生成的所有锚框中选择最符合目标特征的一组进行定位检测;针对每一个选中的锚框所对应的感兴趣区域,在其区域内执行二元分类任务以判断该区域是否为背景或包含目标物体

RPN与检测网络共用相同的特征提取模块,但仅用于生成锚框.这种做法的好处在于降低了计算负担,从而提高了检测速度.

接着,SSD与RPN一起生成最终的检测结果。

4.核心算法原理和具体操作步骤以及数学公式讲解

1. 框选策略

SSD基于每个像素生成预测,并通过这一机制不仅能够捕获全局图像特征还能够有效提取局部细节。为了使算法输出与基于区域的方法达到相似效果的目标,SSD引入并应用边界增强技术(Bounding Box Augmentation),从而实现了这一特定性能指标。

边框增强具体而言,是通过随机调整边框大小、位置、颜色以及纹理等属性来实现的。这一策略能够有效减少模型在过拟合方面的能力。

2. 检测结构

SSD采用了与RetinaNet相似的设计方案,并包含多种卷积层、最大池化单元以及辅助回归层。其中采用的卷积运算和最大值池化操作与后者完全一致。

为了优化性能,在SSD架构中引入了全连接层,并以精确定位边界框的位置偏移量。该改进使SSD能够识别不同尺寸与比例的目标。

3. 损失函数

SSD采用与RetinaNet相同的损失函数架构...由分类_loss和regression_loss两部分组成。其中分类_loss用于计算目标的存在概率...而regression_loss则用于确定边界框的位置信息及其尺寸参数。

分类损失采用softmax交叉熵函数,回归损失采用smooth L1 loss函数。

4. 训练过程

与RetinaNet的训练流程相似的是,在采用边界增强技术后SSD增加了训练数据量而导致模型收敛所需的迭代次数增加

此外,在SSD训练过程中也采用了注意力机制(Attention Mechanism),其主要目的是聚焦于与前景目标类似的负样本,从而提高识别效果。

5. 模型大小

其规模与其所使用的骨干网络及检测子网络之间存在密切关联。例如,在采用VGG16核心网络时, 其规模约为52MB; 而当使用ResNet50核心网络时, 则约为254MB。

5.具体代码实例和解释说明

本节中,我们将会展示如何利用SSD实现目标检测任务。

准备环境

首先,安装相关依赖库。

复制代码
    !pip install tensorflow==2.3.0
    !pip install opencv-python numpy matplotlib pillow
    
      
    
    代码解读

然后,下载预训练权重文件ssd_mobilenet_v2_fpnlite_320x320_coco17_tpu-8.

接下来,加载模型并进行推断。

复制代码
    import cv2
    import numpy as np
    import tensorflow as tf
    from google.colab.patches import cv2_imshow
    
    def load_model():
    model = tf.saved_model.load('ssd_mobilenet_v2_fpnlite_320x320_coco17_tpu-8')
    return model
    
    def inference(image):
    h, w = image.shape[:2]
    
    # Resize to the input size of the model
    resize_ratio = min(320 / w, 320 / h)
    resized_image = cv2.resize(image, None, fx=resize_ratio, fy=resize_ratio, interpolation=cv2.INTER_AREA)
    
    # Normalize and add a batch dimension
    input_tensor = tf.convert_to_tensor(resized_image)[tf.newaxis,...] * (2./255) - 1.0
    
    detections = detect_fn(input_tensor)
    num_detections = int(detections.pop('num_detections'))
    detections = {key: value[0, :num_detections].numpy()
                   for key, value in detections.items()}
    detections['num_detections'] = num_detections
    
    # Rescale bboxes to original image size
    boxes = detections['detection_boxes']
    scale_x, scale_y = w / resized_image.shape[1], h / resized_image.shape[0]
    boxes[:, [0, 2]] *= scale_x
    boxes[:, [1, 3]] *= scale_y
    
    scores = detections['detection_scores']
    classes = detections['detection_classes'].astype(np.int32)
    bboxes = boxes.astype(np.int32)
    
    return scores, classes, bboxes
    
    
    if __name__ == '__main__':
    detect_fn = load_model().signatures['serving_default']
    
    image = cv2.imread(img_path)
    scores, classes, bboxes = inference(image)
    print("Number of objects detected:", len(scores))
    
    for i in range(len(scores)):
        score = float(scores[i])
        bbox = tuple(bboxes[i])
        class_id = int(classes[i])
    
        if score > 0.5:
            label = CLASSES[class_id] + f"({score:.2f})"
    
            cv2.rectangle(image, bbox[0:2], bbox[2:], (0,255,0), thickness=2)
            cv2.putText(image, label, (bbox[0]+10,bbox[1]+30), cv2.FONT_HERSHEY_SIMPLEX, 1, (0,255,0), 2, cv2.LINE_AA)
    
    cv2_imshow(image)
    
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
    
    代码解读

在该代码块中,我们实现了inference()函数的功能。该函数将接收一个图片作为输入参数,并对其进行预处理操作(包括缩放、归一化以及在输入数据前缀上附加批量维度)。随后将此预处理后的图像传递给detect_fn进行检测操作。检测完成后将返回模型预测结果。这些预测结果主要包括以下三类数值信息:边界框坐标、边界框置信度值以及对应的分类标签信息。

接着

最后,调用cv2_imshow()函数显示结果。

数据集准备

把数据集放在指定目录下,并进行数据增强。

复制代码
    train_datagen = tf.keras.preprocessing.image.ImageDataGenerator(
    rotation_range=45,
    width_shift_range=.15, 
    height_shift_range=.15, 
    zoom_range=0.5,
    shear_range=.15,
    horizontal_flip=True, 
    rescale=1./255.,
    )
    
    val_datagen = tf.keras.preprocessing.image.ImageDataGenerator(rescale=1./255.)
    
    train_ds = train_datagen.flow_from_directory(
    TRAIN_DIR, target_size=(IMAGE_SIZE, IMAGE_SIZE), batch_size=BATCH_SIZE)
    
    val_ds = val_datagen.flow_from_directory(
    VAL_DIR, target_size=(IMAGE_SIZE, IMAGE_SIZE), batch_size=BATCH_SIZE)
    
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
    
    代码解读

在这里定义了两个ImageDataGenerator实例,并分别应用于训练集和验证集的数据增强操作。随后利用flow_from_directory()函数读取指定目录下的图片数据,并按照训练集或验证集的需求构建相应的TF数据集。

模型训练

下面,我们可以训练模型。

复制代码
    model = ssd_mobiledet_cpu_320x320(num_classes=NUM_CLASSES+1, pretrained_backbone='MobileDetCPU', freeze_batchnorm=True)
    
    base_lr = 0.004
    steps_per_epoch = train_ds.samples // BATCH_SIZE
    total_epochs = EPOCHS
    
    loss = {
    "cls_out": tf.losses.SparseCategoricalCrossentropy(from_logits=True),
    "box_out": smooth_l1_loss(),
    }
    
    model.compile(optimizer=tf.keras.optimizers.Adam(learning_rate=base_lr),
              steps_per_execution=steps_per_epoch,
              loss=loss)
    
    checkpoint_filepath = os.path.join(CHECKPOINT_PATH, "{epoch}.h5")
    callbacks = [
    tf.keras.callbacks.ModelCheckpoint(filepath=checkpoint_filepath, save_weights_only=True, verbose=1),
    tf.keras.callbacks.TensorBoard(log_dir=LOG_DIR),
    ]
    
    history = model.fit(train_ds, epochs=EPOCHS, validation_data=val_ds, callbacks=callbacks)
    
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
      
    
    代码解读

这里,我们引入了ssd_mobiledet_cpu_320x320模型,并基于MobileNetV2构建其SSD架构。通过将freeze_batchnorm参数设为True(即启用批量归一化层冻结状态),确保仅更新卷积层参数以优化训练效率。

随后,在配置训练超参数方面, 我们涉及到了初始学习率. 迭代次数以及总的训练轮次等关键参数. 此外, 在模型优化过程中, 我们采用了由分类损失与边界框回归损失组成的混合损失函数作为指导指标.

我们开发一个保存模型权重的回调,并将一个存储路径模板传递进去,在每次训练周期完成后记录当前轮次的权重。此外,我们还开发了一个TensorBoard的回调以实现对训练曲线进行可视化。

最终, 通过调用fit()函数开始模型的训练过程, 并将这些参数传递给该函数

模型评估

当模型训练完成后,我们可以加载最新的权重并进行模型评估。

复制代码
    latest = tf.train.latest_checkpoint(CHECKPOINT_PATH)
    print("Loading", latest)
    model.load_weights(latest)
    
    _, _, APs, _ = evaluate(model, val_ds)
    mean_ap = np.nanmean(APs[:-1])
    print("mAP:", mean_ap)
    
      
      
      
      
      
      
    
    代码解读

在这里, 我们首先获取了最新的模型权重文件, 然后将其导入至模型中. 接着, 执行评估函数以计算每个类别对应的平均精度(Average Precision, AP). 最后, 将各个类别对应的AP取平均值并输出结果.

全部评论 (0)

还没有任何评论哟~