当前位置: 代码网 > it编程>前端脚本>Python > 基于YOLOv8深度学习的智能车牌检测与识别系统【python源码+Pyqt5界面+数据集+训练代码】目标检测、深度学习实战

基于YOLOv8深度学习的智能车牌检测与识别系统【python源码+Pyqt5界面+数据集+训练代码】目标检测、深度学习实战

2024年08月03日 Python 我要评论
基于YOLOv8深度学习的智能车牌检测与识别系统【python源码+Pyqt5界面+数据集+训练代码】目标检测、深度学习实战

《博主简介》

《------往期经典推荐------》

一、ai应用软件开发实战专栏【链接】

项目名称项目名称
1.【】2.【】
3.【】4.【】
5.【】6.【】
7.【yolov8多目标识别与自动标注软件开发8.【基于yolov8深度学习的行人跌倒检测系统
9.【基于yolov8深度学习的pcb板缺陷检测系统10.【基于yolov8深度学习的生活垃圾分类目标检测系统
11.【基于yolov8深度学习的安全帽目标检测系统12.【基于yolov8深度学习的120种犬类检测与识别系统
13.【基于yolov8深度学习的路面坑洞检测系统14.【基于yolov8深度学习的火焰烟雾检测系统
15.【基于yolov8深度学习的钢材表面缺陷检测系统16.【基于yolov8深度学习的舰船目标分类检测系统
17.【基于yolov8深度学习的西红柿成熟度检测系统18.【基于yolov8深度学习的血细胞检测与计数系统
19.【基于yolov8深度学习的吸烟/抽烟行为检测系统20.【基于yolov8深度学习的水稻害虫检测与识别系统
21.【基于yolov8深度学习的高精度车辆行人检测与计数系统22.【基于yolov8深度学习的路面标志线检测与识别系统
23.【基于yolov8深度学习的智能小麦害虫检测识别系统24.【基于yolov8深度学习的智能玉米害虫检测识别系统
25.【基于yolov8深度学习的200种鸟类智能检测与识别系统26.【基于yolov8深度学习的45种交通标志智能检测与识别系统
27.【基于yolov8深度学习的人脸面部表情识别系统28.【基于yolov8深度学习的苹果叶片病害智能诊断系统
29.【基于yolov8深度学习的智能肺炎诊断系统30.【基于yolov8深度学习的葡萄簇目标检测系统
31.【基于yolov8深度学习的100种中草药智能识别系统32.【基于yolov8深度学习的102种花卉智能识别系统
33.【基于yolov8深度学习的100种蝴蝶智能识别系统34.【基于yolov8与bytetrack的车辆行人多目标检测与追踪系统

二、,已更新31期,欢迎关注,持续更新中~~
三、深度学习【pytorch】专栏【链接】
四、【stable diffusion绘画系列】专栏【链接】

《------正文------》

基本功能演示

在这里插入图片描述

点击跳转至文末《完整相关文件及源码》获取


前言

智能车牌检测与识别系统通过使用最新的yolov8与paddleocr算法能够迅速、准确地在多种环境下实现实时车牌的检测和识别。这项技术在现代交通管理中具有重要作用,因为它能够自动化和简化许多涉及车辆识别和记录的流程。这样的系统不仅提高了工作效率,还降低了人工错误,提供了便捷且可靠的数据支持,对于加强交通安全、辅助执法以及促进智慧城市构建具有深远意义。

博主通过搜集不同绿牌与蓝牌的车牌相关图片,根据yolov8的目标检测技术结合paddleocr识别技术,基于python与pyqt5开发了一款界面简洁的智能车牌检测与识别系统,可支持图片、视频以及摄像头检测,同时可以将图片或者视频检测结果进行保存

软件初始界面如下图所示:
在这里插入图片描述

检测结果界面如下:
在这里插入图片描述

一、软件核心功能介绍及效果演示

软件主要功能

1. 可进行实时绿牌与蓝牌这两种车牌的检测与识别;
2. 支持图片、视频及摄像头进行检测,同时支持图片的批量检测
3. 界面可实时显示目标位置识别结果置信度用时等信息;
4. 支持图片或者视频检测结果保存

(1)图片检测演示

点击图片图标,选择需要检测的图片,或者点击文件夹图标,选择需要批量检测图片所在的文件夹,操作演示如下:
点击保存按钮,会对图片或视频检测结果进行保存,存储路径为:save_data目录下。
单个图片检测操作如下:
在这里插入图片描述

批量图片检测操作如下:
点击表格中的指定行,可以显示指定图片的检测结果。
在这里插入图片描述

(2)视频检测演示

点击视频图标,打开选择需要检测的视频,就会自动显示检测结果。点击保存按钮,会对视频检测结果进行保存,存储路径为:save_data目录下。
在这里插入图片描述

(3)摄像头检测演示

点击摄像头图标,可以打开摄像头,可以实时进行检测,再次点击摄像头图标,可关闭摄像头。
在这里插入图片描述

(4)保存图片与视频检测结果

点击保存按钮后,会将当前选择的图片【含批量图片】或者视频的检测结果进行保存。检测的图片与视频结果会存储在save_data目录下。
在这里插入图片描述

在这里插入图片描述

二、车牌检测与识别流程

要进行车牌识别,主要分为两步。
第一步:进行车辆车牌位置的检测,本文使用yolov8,通过16770张图片训练了一个可用于检测绿牌与蓝牌的车牌检测模型来进行车牌检测,检测精度为0.995
第二步:对第一步检测出的车牌进行识别,直接使用的是paddleocr对于车牌进行识别。
下面对这些内容进行详细介绍

2.1 第一步:车牌检测

本文主要基于yolov8训练了一个车牌检测模型,用于进行车牌位置的检测,主要步骤如下:

2.1.1 yolov8环境配置

yolov8源码地址:https://github.com/ultralytics/ultralytics

yolov8的基本原理
yolov8是一种前沿的目标检测技术,它基于先前yolo版本在目标检测任务上的成功,进一步提升了性能和灵活性。主要的创新点包括一个新的骨干网络、一个新的 ancher-free 检测头和一个新的损失函数,可以在从 cpu 到 gpu 的各种硬件平台上运行
其主要网络结构如下:
在这里插入图片描述

2.1.2 数据集准备与处理

本文训练模型使用的数据集为cpdd2020绿牌数据集与部分ccpd2019的蓝牌数据集
数据集下载地址:https://github.com/detectrecog/ccpd
ccpd是一个大型的、多样化的、经过仔细标注的中国城市车牌开源数据集。ccpd数据集主要分为ccpd2019数据集和ccpd2020(ccpd-green)数据集。ccpd2019数据集车牌类型仅有普通车牌(蓝色车牌),ccpd2020数据集车牌类型仅有新能源车牌(绿色车牌)。
在ccpd数据集中,每张图片仅包含一张车牌,车牌的车牌省份主要为皖。ccpd中的每幅图像都包含大量的标注信息,但是ccpd数据集没有专门的标注文件,每张图像的文件名就是该图像对应的数据标注。
标注最困难的部分是注释四个顶点的位置。为了完成这项任务,数据发布者首先在10k图像上手动标记四个顶点的位置。然后设计了一个基于深度学习的检测模型,在对该网络进行良好训练后,对每幅图像的四个顶点位置进行自动标注。最后,数据发布者雇用了7名兼职工人在两周内纠正这些标注。ccpd提供了超过250k个独特的车牌图像和详细的注释。每张图像的分辨率为720(宽度)× 1160(高)× 3(通道)。实际上,这种分辨率足以保证每张图像中的车牌清晰可辨,但是该数据有些图片标注可能不准。不过总的来说ccpd数据集非常推荐研究车牌识别算法的人员学习使用。

本文使用的数据集一共包含16770张车牌数据。部分图片如下:
在这里插入图片描述
在这里插入图片描述

数据集中图片的命名规则如下:
图片命名:“025-95_113-154&383_386&473-386&473_177&454_154&383_363&402-0_0_22_27_27_33_16-37-15.jpg”

解释:

1. 025:车牌区域占整个画面的比例;
2. 95_113: 车牌水平和垂直角度, 水平95°, 竖直113°
3. 154&383_386&473:标注框左上、右下坐标,左上(154, 383), 右下(386, 473)
4. 86&473_177&454_154&383_363&402:标注框四个角点坐标,顺序为右下、左下、左上、右上
5. 0_0_22_27_27_33_16:车牌号码映射关系如下: 第一个0为省份 对应省份字典provinces中的’皖’,;第二个0是该车所在地的地市一级代码,对应地市一级代码字典alphabets的’a’;后5位为字母和文字, 查看车牌号ads字典,如22为y,27为3,33为9,16为s,最终车牌号码为皖ay339s

省份:[“皖”, “沪”, “津”, “渝”, “冀”, “晋”, “蒙”, “辽”, “吉”, “黑”, “苏”, “浙”, “京”, “闽”, “赣”,
“鲁”, “豫”, “鄂”, “湘”, “粤”, “桂”, “琼”, “川”, “贵”, “云”, “藏”, “陕”, “甘”, “青”, “宁”,
“新”]

地市:[‘a’, ‘b’, ‘c’, ‘d’, ‘e’, ‘f’, ‘g’, ‘h’, ‘j’, ‘k’, ‘l’, ‘m’, ‘n’, ‘p’, ‘q’,
‘r’, ‘s’, ‘t’, ‘u’, ‘v’, ‘w’,‘x’, ‘y’, ‘z’]

车牌字典:[‘a’, ‘b’, ‘c’, ‘d’, ‘e’, ‘f’, ‘g’, ‘h’, ‘j’, ‘k’, ‘l’, ‘m’, ‘n’, ‘p’,
‘q’, ‘r’, ‘s’, ‘t’, ‘u’, ‘v’, ‘w’, ‘x’,‘y’, ‘z’, ‘0’, ‘1’, ‘2’, ‘3’, ‘4’, ‘5’,
‘6’, ‘7’, ‘8’, ‘9’]

制作车牌检测数据集:
这个数据集的检测和识别标签都在图片名中,可以直接通过上述图片的命名规则,从图片读取出来,再写入txt文件中即可。代码如下:

import shutil
import cv2
import os

def txt_translate(path, txt_path):
    print(path)
    print(txt_path)
    for filename in os.listdir(path):
        # print(filename)

        list1 = filename.split("-", 3)  # 第一次分割,以减号'-'做分割
        subname = list1[2]
        list2 = filename.split(".", 1)
        subname1 = list2[1]
        if subname1 == 'txt':
            continue
        lt, rb = subname.split("_", 1)  # 第二次分割,以下划线'_'做分割
        lx, ly = lt.split("&", 1)
        rx, ry = rb.split("&", 1)
        width = int(rx) - int(lx)
        height = int(ry) - int(ly)  # bounding box的宽和高
        cx = float(lx) + width / 2
        cy = float(ly) + height / 2  # bounding box中心点

        img = cv2.imread(path + filename)
        if img is none:  # 自动删除失效图片(下载过程有的图片会存在无法读取的情况)
            print(path + filename)
            os.remove(path + filename)
            continue
        width = width / img.shape[1]
        height = height / img.shape[0]
        cx = cx / img.shape[1]
        cy = cy / img.shape[0]

        txtname = filename.split(".", 1)
        txtfile = txt_path + txtname[0] + ".txt"
        # 绿牌是第0类,蓝牌是第1类
        with open(txtfile, "w") as f:
            f.write(str(0) + " " + str(cx) + " " + str(cy) + " " + str(width) + " " + str(height))


if __name__ == '__main__':
    # det图片存储地址
    traindir = r"g:/datasets/carplatedata/ccpd2020/ccpd_green/train/"
    validdir = r"g:/datasets/carplatedata/ccpd2020/ccpd_green/val/"
    testdir = r"g:/datasets/carplatedata/ccpd2020/ccpd_green/test/"
    # det txt存储地址
    train_txt_path = r"g:/datasets/carplatedata/ccpd2020/ccpd_green/train_labels/"
    val_txt_path = r"g:/datasets/carplatedata/ccpd2020/ccpd_green/val_labels/"
    test_txt_path = r"g:/datasets/carplatedata/ccpd2020/ccpd_green/test_labels/"
    txt_translate(traindir, train_txt_path)
    txt_translate(validdir, val_txt_path)
    txt_translate(testdir, test_txt_path)

在这里插入图片描述
制作完成后,如上图所示。

2.1.3 目标检测模型训练

图片数据集的存放格式如下,在项目目录中新建datasets目录,同时将分类的图片分为训练集、验证集与测试集放入platedata目录下。
在这里插入图片描述
同时我们需要新建一个data.yaml文件,用于存储训练数据的路径及模型需要进行检测的类别。yolov8在进行模型训练时,会读取该文件的信息,用于进行模型的训练与验证。data.yaml的具体内容如下:

train: e:\mycvprogram\carplatedetection\datasets\platedata\images\train  # train images (relative to 'path') 128 images
val: e:\mycvprogram\carplatedetection\datasets\platedata\images\val  # val images (relative to 'path') 128 images

# number of classes
nc: 2

# classes
names: ['greenlicense','bluelicense']

注:train与val后面表示需要训练图片的路径,建议直接写自己文件的绝对路径。

数据准备完成后,通过调用train.py文件进行模型训练,epochs参数用于调整训练的轮数,batch参数用于调整训练的批次大小【根据内存大小调整,最小为1】,代码如下:

#coding:utf-8
from ultralytics import yolo
# 加载预训练模型
model = yolo("yolov8n.pt")
# use the model
if __name__ == '__main__':
    # use the model
    results = model.train(data='datasets/platedata/data.yaml', epochs=300, batch=4)  # 训练模型
    # 将模型转为onnx格式
    # success = model.export(format='onnx')

训练结果评估

在深度学习中,我们通常用损失函数下降的曲线来观察模型训练的情况。yolov8在训练时主要包含三个方面的损失:定位损失(box_loss)、分类损失(cls_loss)和动态特征损失(dfl_loss),在训练结束后,可以在runs/目录下找到训练过程及结果文件,如下所示:
在这里插入图片描述

各损失函数作用说明:
定位损失box_loss:预测框与标定框之间的误差(giou),越小定位得越准;
分类损失cls_loss:计算锚框与对应的标定分类是否正确,越小分类得越准;
动态特征损失(dfl_loss):dflloss是一种用于回归预测框与目标框之间距离的损失函数。在计算损失时,目标框需要缩放到特征图尺度,即除以相应的stride,并与预测的边界框计算ciou loss,同时与预测的anchors中心点到各边的距离计算回归dflloss。这个过程是yolov8训练流程中的一部分,通过计算dflloss可以更准确地调整预测框的位置,提高目标检测的准确性。
本文训练结果如下:
在这里插入图片描述

我们通常用pr曲线来体现精确率和召回率的关系,本文训练结果的pr曲线如下。map表示precision和recall作为两轴作图后围成的面积,m表示平均,@后面的数表示判定iou为正负样本的阈值。map@.5:表示阈值大于0.5的平均map,可以看到本文模型目标检测的map@0.5平均值为0.995,结果相当不错。
在这里插入图片描述

4. 检测结果识别

模型训练完成后,我们可以得到一个最佳的训练结果模型best.pt文件,在runs/trian/weights目录下。我们可以使用该文件进行后续的推理检测。
图片检测代码如下:

#coding:utf-8
from ultralytics import yolo
import cv2
# 所需加载的模型目录
path = 'models/best.pt'
# 需要检测的图片地址
img_path = "testfiles/013671875-93_102-226&489_426&558-426&558_234&546_226&489_417&494-0_0_5_25_33_24_24_33-86-80.jpg"


# 加载预训练模型
# conf	0.25	object confidence threshold for detection
# iou	0.7	intersection over union (iou) threshold for nms
model = yolo(path, task='detect')
# model = yolo(path, task='detect',conf=0.5)


# 检测图片
results = model(img_path)
res = results[0].plot()
# res = cv2.resize(res,dsize=none,fx=0.3,fy=0.3,interpolation=cv2.inter_linear)
cv2.imshow("yolov8 detection", res)
cv2.waitkey(0)

执行上述代码后,会将执行的结果直接标注在图片上,结果如下:
在这里插入图片描述
可以发现,该模型能够很好的检测出车牌区域。下面我们需要对检测出的车牌进行识别。

2.2 第二步:车牌识别

本文的车牌识别直接使用的是开源的paddleocr检测模型。地址:https://github.com/paddlepaddle/paddleocr

2.2.1环境配置

2.2.2 模型使用demo

在这里插入图片描述

from paddleocr import paddleocr, draw_ocr
# paddleocr目前支持的多语言语种可以通过修改lang参数进行切换
# 例如`ch`, `en`, `fr`, `german`, `korean`, `japan`
cls_model_dir='paddlemodels/whl/cls/ch_ppocr_mobile_v2.0_cls_infer'
rec_model_dir='paddlemodels/whl/rec/ch/ch_pp-ocrv4_rec_infer'
ocr = paddleocr(use_angle_cls=true, lang="ch", det=false,cls_model_dir=cls_model_dir,rec_model_dir=rec_model_dir)  # need to run only once to download and load model into memory
img_path = '22.png'
result = ocr.ocr(img_path, cls=true)

license_name, conf = result[0][0][1]
if '·' in license_name:
    license_name = license_name.replace('·', '')
print(license_name,conf)

在这里插入图片描述

2.2.3加载ocr模型

# 加载ocr模型
cls_model_dir = 'paddlemodels/whl/cls/ch_ppocr_mobile_v2.0_cls_infer'
rec_model_dir = 'paddlemodels/whl/rec/ch/ch_pp-ocrv4_rec_infer'
ocr = paddleocr(use_angle_cls=false, lang="ch", det=false, cls_model_dir=cls_model_dir,rec_model_dir=rec_model_dir)

2.2.4 获取车牌位置信息

# 所需加载的模型目录
path = 'models/best.pt'
# 加载预训练模型
# conf	0.25	object confidence threshold for detection
# iou	0.7	int.ersection over union (iou) threshold for nms
model = yolo(path, task='detect')
# model = yolo(path, task='detect',conf=0.5)
# 检测图片
results = model(img_path)[0]
# 车牌区域信息
location_list = results.boxes.xyxy.tolist()

2.2.5抠出上述车牌位置

if len(location_list) >= 1:
    location_list = [list(map(int, e)) for e in location_list]
    # 截取每个车牌区域的照片
    license_imgs = []
    for each in location_list:
        x1, y1, x2, y2 = each
        cropimg = now_img[y1:y2, x1:x2]
        license_imgs.append(cropimg)
        cv2.imshow('111',cropimg)
        cv2.waitkey(0)

在这里插入图片描述

2.2.6使用ocr进行车牌识别

def get_license_result(ocr,image):
    """
    image:输入的车牌截取照片
    输出,车牌号与置信度
    """
    result = ocr.ocr(image, cls=true)[0]
    if result:
        license_name, conf = result[0][1]
        if '·' in license_name:
            license_name = license_name.replace('·', '')
        return license_name, conf
    else:
        return none, none
# 车牌识别结果
lisence_res = []
conf_list = []
for each in license_imgs:
    license_num, conf = get_license_result(ocr, each)
    if license_num:
        lisence_res.append(license_num)
        conf_list.append(conf)
    else:
        lisence_res.append('无法识别')
        conf_list.append(0)

2.2.7将识别结果显示在图片上

    for text, box in zip(lisence_res, location_list):
        now_img = tools.drawrectbox(now_img, box, text, fontc)

2.2.8完整代码

#coding:utf-8
from ultralytics import yolo
import cv2
import detect_tools as tools
from pil import imagefont
from paddleocr import paddleocr


def get_license_result(ocr,image):
    """
    image:输入的车牌截取照片
    输出,车牌号与置信度
    """
    result = ocr.ocr(image, cls=true)[0]
    if result:
        license_name, conf = result[0][1]
        if '·' in license_name:
            license_name = license_name.replace('·', '')
        return license_name, conf
    else:
        return none, none

# 需要检测的图片地址
img_path = "testfiles/013671875-93_102-226&489_426&558-426&558_234&546_226&489_417&494-0_0_5_25_33_24_24_33-86-80.jpg"
now_img = tools.img_cvread(img_path)

fontc = imagefont.truetype("font/platech.ttf", 50, 0)
# 加载ocr模型
cls_model_dir = 'paddlemodels/whl/cls/ch_ppocr_mobile_v2.0_cls_infer'
rec_model_dir = 'paddlemodels/whl/rec/ch/ch_pp-ocrv4_rec_infer'
ocr = paddleocr(use_angle_cls=false, lang="ch", det=false, cls_model_dir=cls_model_dir,rec_model_dir=rec_model_dir)

# 所需加载的模型目录
path = 'models/best.pt'
# 加载预训练模型
# conf	0.25	object confidence threshold for detection
# iou	0.7	int.ersection over union (iou) threshold for nms
model = yolo(path, task='detect')
# model = yolo(path, task='detect',conf=0.5)
# 检测图片
results = model(img_path)[0]

location_list = results.boxes.xyxy.tolist()
if len(location_list) >= 1:
    location_list = [list(map(int, e)) for e in location_list]
    # 截取每个车牌区域的照片
    license_imgs = []
    for each in location_list:
        x1, y1, x2, y2 = each
        cropimg = now_img[y1:y2, x1:x2]
        license_imgs.append(cropimg)
        cv2.imshow('111',cropimg)
        cv2.waitkey(0)
    # 车牌识别结果
    lisence_res = []
    conf_list = []
    for each in license_imgs:
        license_num, conf = get_license_result(ocr, each)
        if license_num:
            lisence_res.append(license_num)
            conf_list.append(conf)
        else:
            lisence_res.append('无法识别')
            conf_list.append(0)
    for text, box in zip(lisence_res, location_list):
        now_img = tools.drawrectbox(now_img, box, text, fontc)

now_img = cv2.resize(now_img,dsize=none,fx=0.5,fy=0.5,interpolation=cv2.inter_linear)
cv2.imshow("yolov8 detection", now_img)
cv2.waitkey(0)

在这里插入图片描述

以上便是关于此款智能车牌检测与识别系统的原理与代码介绍。基于此模型,博主用pythonpyqt5开发了一个带界面的软件系统,即文中第二部分的演示内容,能够很好的支持图片、视频及摄像头进行检测,同时支持检测结果的保存

关于该系统涉及到的完整源码、ui界面代码、数据集、训练代码、测试图片视频等相关文件,均已打包上传,感兴趣的小伙伴可以通过下载链接自行获取。


【获取方式】

本文涉及到的完整全部程序文件:包括python源码、数据集、训练代码、ui文件、测试图片视频等(见下图),获取方式见文末:
在这里插入图片描述


结束语

以上便是博主开发的基于yolov8深度学习的智能车牌检测与识别系统的全部内容,由于博主能力有限,难免有疏漏之处,希望小伙伴能批评指正。
关于本篇文章大家有任何建议或意见,欢迎在评论区留言交流!

(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com