物体检测实战:使用 OpenCV 进行 YOLO 对象检测(2)
yolo.py:评估图像
yolo_video.py :评估视频
===============================================================
新建文件yolo_objectdetection.py
import the necessary packages
import numpy as np
import argparse
import time
import cv2
import os
image_path=‘11.jpg’
yolo=‘yolo_coco’
confidence_t=0.5
threshold=0.3
加载训练 YOLO 模型的 COCO 类标签
labelsPath = os.path.sep.join([yolo, “coco.names”])
LABELS = open(labelsPath).read().strip().split(“\n”)
初始化一个颜色列表来表示每个类标签
np.random.seed(42)
COLORS = np.random.randint(0, 255, size=(len(LABELS), 3),
dtype=“uint8”)
YOLO 对象检测
print(“[INFO] loading YOLO from disk…”)
config_path = ‘./yolo_coco/yolov3.cfg’
weights_path = ‘./yolo_coco/yolov3.weights’
net = cv2.dnn.readNetFromDarknet(config_path, weights_path)
导入包。
定义全局参数:
image_path:定义图片的路径。
yolo:定义模型存放的路径
confidence_t:过滤弱检测的最小概率。
threshold:非最大值抑制阈值。
接下来,加载了所有的类 LABELS。然后,为每个标签分配随机颜色。
加载权重文件。
加载我们的输入图像并获取其空间维度
image = cv2.imread(image_path)
(H, W) = image.shape[:2]
从输入图像构建一个blob,然后执行一个前向传播
通过 YOLO 对象检测器,输出边界框和相关概率
blob = cv2.dnn.blobFromImage(image, 1 / 255.0, (416, 416),
swapRB=True, crop=False)
net.setInput(blob)
start = time.time()
获取网络输出层信息(所有输出层的名字),设定并前向传播
outInfo = net.getUnconnectedOutLayersNames()
得到各个输出层的、各个检测框等信息,是二维结构。
layerOutputs = net.forward(outInfo)
加载输入图像并提取其尺寸。
从 YOLO 模型取出输出层名称。
构建一个 blob(第 48 和 49 行)。
cv2.dnn.blobFromImage(image[, scalefactor[, size[, mean[, swapRB[, crop[, ddepth]]]]]])
作用:
图像预处理步骤包括均值减除、比例缩放等操作,并结合裁剪与通道交换处理以生成一个四通道的blob结构
参数:
- image:输入图像(1、3或者4通道)
可选参数
- scalefactor:图像各通道数值的缩放比例
- size:输出图像的空间尺寸,如size=(200,300)表示高h=300,宽w=200
- mean:在各通道中进行减去操作,在减少光照影响方面具有重要作用(例如,在BGR 3-channel image中使用mean=[104.0, 177.0, 123.0]时,则分别从b、g、r三个通道中减去对应的数值)。
- swapRB:交换RB通道,默认为False.(cv2.imread读取的是彩图是bgr通道)
- crop: 图像剪切, 设置为False. 如果该值设为True时, 按比例缩放后再从中心位置进行裁剪成指定的size尺寸。
- ddepth:输出的图像深度,可选CV_32F 或者 CV_8U.
通过我们的 YOLO 网络执行前向传递
显示 YOLO 的推理时间
接下来我们实现图像的可视化操作:
分别初始化检测到的边界框、置信度和类 ID 的列表
boxes = []
confidences = []
classIDs = []
循环输出
for output in layerOutputs:
遍历每个检测结果
for detection in output:
提取物体检测的类ID和置信度(即概率)
scores = detection[5:]
classID = np.argmax(scores)
confidence = scores[classID]
过滤精度低的结果
if confidence > confidence_t:
延展边界框坐标,计算 YOLO 边界框的中心 (x, y) 坐标,然后是框的宽度和高度
box = detection[0:4] * np.array([W, H, W, H])
(centerX, centerY, width, height) = box.astype(“int”)
使用中心 (x, y) 坐标导出边界框的上角和左角
x = int(centerX - (width / 2))
y = int(centerY - (height / 2))
更新边界框坐标、置信度和类 ID 列表
boxes.append([x, y, int(width), int(height)])
confidences.append(float(confidence))
classIDs.append(classID)
使用非极大值抑制来抑制弱的、重叠的边界框
idxs = cv2.dnn.NMSBoxes(boxes, confidences, confidence_t,
threshold)
确保至少存在一个检测
if len(idxs) > 0:
遍历我们保存的索引
for i in idxs.flatten():
提取边界框坐标
(x, y) = (boxes[i][0], boxes[i][1])
(w, h) = (boxes[i][2], boxes[i][3])
在图像上绘制一个边界框矩形和标签
color = [int© for c in COLORS[classIDs[i]]]
cv2.rectangle(image, (x, y), (x + w, y + h), color, 2)
text = “{}: {:.4f}”.format(LABELS[classIDs[i]], confidences[i])
cv2.putText(image, text, (x, y - 5), cv2.FONT_HERSHEY_SIMPLEX,
0.5, color, 2)
show the output image
cv2.imshow(“Image”, image)
cv2.waitKey(0)
初始化列表:
box :我们围绕对象的边界框。
定义为:YOLO 网络分配给每个目标的置信度值。 该数值表示网络对目标存在性的信心程度。 从命令行参数中需注意的是,在实际应用中我们应筛选出置信度高于 0.5 的目标。
classIDs :检测到的对象的类标签。
循环遍历每个 layerOutputs。
循环输出中的每个检测项。
提取 classID 和置信度。
过滤掉弱检测项。
到这里已经得到了高精度的检测项,然后:
延展边界框坐标,以便可以在原始图像上正确显示它们。
确定边界框的位置和大小;YOLO被表示为以下形式返回边界框坐标:(centerX, centerY, width, and height)。
使用此信息计算出边界框的左上角 (x, y) 坐标。
更新 box 、 confidences 和 classIDs 列表。
然后使用NMS过滤冗余和无关的边界框。
接下主要将结果绘制到图片上。
运行结果:

===============================================================
我们现在已经掌握了将 YOLO 对象检测器作用于单一图像的能力。接下来我们将致力于进行检测以识别视频流或来自摄像头的物体。
新建 yolo_video.py 文件并插入以下代码:
import numpy as np
import imutils
import time
import cv2
import os
yolo = ‘yolo_coco’
confidence_t = 0.5
threshold = 0.3
output = ‘output.avi’
导入需要的包
定义全局参数:
yolo:定义模型存放的路径
confidence_t:过滤弱检测的最小概率。
threshold:非最大值抑制阈值。
output:输出的视频结果
加载YOLO 模型训练的 COCO 类标签
labelsPath = os.path.sep.join([yolo, “coco.names”])
LABELS = open(labelsPath).read().strip().split(“\n”)
初始化颜色列表
np.random.seed(42)
COLORS = np.random.randint(0, 255, size=(len(LABELS), 3), dtype=“uint8”)
配置 YOLO 权重和模型配置的路径
weightsPath = os.path.sep.join([yolo, “yolov3.weights”])
configPath = os.path.sep.join([yolo, “yolov3.cfg”])
导入基于COCO数据集(包含80个类别)训练好的YOLO物体检测模型,并提取其输出层名称。
net = cv2.dnn.readNetFromDarknet(configPath, weightsPath)
获取网络输出层信息(所有输出层的名字),设定并前向传播
outInfo = net.getUnconnectedOutLayersNames()
初始化视频流、指向输出视频文件的指针和帧尺寸
vs = cv2.VideoCapture(0)
writer = None
(W, H) = (None, None)
获取文件的总帧数。
try:
prop = cv2.cv.CV_CAP_PROP_FRAME_COUNT if imutils.is_cv2() \
else cv2.CAP_PROP_FRAME_COUNT
total = int(vs.get(prop))
print(“[INFO] {} total frames in video”.format(total))
except:
print(“[INFO] could not determine # of frames in video”)
print(“[INFO] no approx. completion time can be provided”)
total = -1
这段代码的步骤:
读取类别。
给每个类别初始化颜色。
设置YOLO权重文件的路径。
加载YOLO权重文件。
获取输出层信息。
初始化VideoCapture对象。
初始化视频编写器和帧尺寸。
获取总帧数,以便估计处理整个视频需要多长时间。
loop over frames from the video file stream
while True:
从文件中读取下一帧
(grabbed, frame) = vs.read()
如果帧没有被抓取,那么已经到了流的末尾
if not grabbed:
break
如果框架尺寸为空,则给他们赋值
if W is None or H is None:
(H, W) = frame.shape[:2]
基于输入帧构建一个 blob,并随后对 YOLO 目标检测器进行前向推断以获取边界框及其对应的概率值
blob = cv2.dnn.blobFromImage(frame, 1 / 255.0, (416, 416),
swapRB=True, crop=False)
net.setInput(blob)
start = time.time()
layerOutputs = net.forward(outInfo)
end = time.time()
分别初始化检测到的边界框、置信度和类 ID 的列表
boxes = []
confidences = []
classIDs = []
循环输出
for output in layerOutputs:
遍历每个检测结果
for detection in output:
提取物体检测的类ID和置信度(即概率)
scores = detection[5:]
classID = np.argmax(scores)
confidence = scores[classID]
过滤精度低的结果
简单介绍一下我的背景/曾经的工作经历
普遍认为大多数Python工程师在追求职业发展时面临着两种主要选择:独立学习路径或参加系统化的培训课程。然而高昂的学习费用使得这种选择往往难以负担。缺乏系统性的自主学习往往效率低下且耗时长,并容易被技术瓶颈所限制难以进一步突破!
为了收集整理一套系统全面的《2024年Python开发全套学习资料》,最根本的目的也十分单纯——就是希望特别希望可以帮助那些渴望自我提升但却不知从何开始学习的人们,并且能够让大家的学习压力得到缓解。






针对初学者提供的基础学习资料以及专为有丰富开发经验的学习者设计的专业课程几乎涵盖了所有前端开发所需的知识点系统性地构建了完整的前端知识体系
因为文件较大,仅对目录大纲进行截取展示.每个节点中均包含大型公司面试题库、学习笔记、源代码学习资料、实战项目以及讲解视频,并将逐步持续更新.
如果你觉得这些内容对你有帮助,可以扫码获取!!!(备注:Python)
一套学习资料也是很有初心的一件事。它的主要目的是帮助那些希望自学提升却感到迷茫无措的朋友,并且同时也减轻了大家的学习负担。
[外链图片转存中…(img-gajgTbZ8-1713800681268)]
[外链图片转存中…(img-t3rDhFVL-1713800681269)]
[外链图片转存中…(img-AKWscmQW-1713800681270)]
[外链图片转存中…(img-flqXlm07-1713800681271)]


针对新手提供零基础的学习资源;同时为有3年以上工作经验者设计的深入学习与提升课程;基本囊括了前端开发所需掌握的核心知识点;具备系统性和完整性。
因为文件较大,在此仅以此作为目录大纲的截屏展示,并说明每个节点中均包含大厂面经、学习笔记、源码讲义等丰富资源,并且后续将持续更新
如果你觉得这些内容对你有帮助,可以扫码获取!!!(备注:Python)

