📝个人主页🌹:Eternity._
🌹🌹期待您的关注 🌹🌹
❀交通路口智能监测平台实现
- 1.概述
- 2.工程文件简介
- 2.1 工程文件结构
- 2.2 训练检测模型
- 2.2.1 准备数据集
- 2.2.2 训练自己的权重文件
- 2.2.3 使用自己的权重文件
- 3.系统可视化
- 3.1 打开摄像头
- 3.2 上传视频监测
- 3.3 统计结果显示
- 4.效果
- 5.总结
- 6.训练环境、VOC数据集和exe文件运行说明
- 6.1 exe文件运行说明
1.概述
交通要道的路口上人车穿行,特别是上下班早高峰,且时常发生交通事故。因此对交通路口的车流量和人流量的监测必不可少。
2.工程文件简介
2.1 工程文件结构
这是pycharm打开的工程文件,其中主要有存在权重文件、目标类别的文件夹,YOLOX模型的文件夹还有打包会输出的output文件夹,exe文件存在在这里面。
这里使用的检测模型为YOLOX模型,模型权重为训练VOC数据集得来,其中包括了二十个类别,但我们主要针对地面交通路口进行监测,选择了最关键的三个监测要素作为监测目标,分别为人、汽车和自行车。YOLOX神经网络模型介绍如下:
YOLOX模型由旷世科技提出,模型结构如下图所示。
该体系主要划分为两大核心组件:一个是负责主干特征提取的网络结构,另一个是用于融合多尺度特征的金字塔架构。主干特征提取网络由四个堆叠的ResBlock模块构成,它们协同工作,从输入图像中抽取多尺度的特征信息,并输出三个关键的特征层至特征金字塔融合部分。在特征金字塔的框架内,这三个来自主干网络的特征层会经历一次多尺度的特征整合过程。考虑到高分辨率特征层富含细节纹理信息,而低分辨率特征层则蕴含丰富的语义内容,策略上首先对低分辨率的特征层P5_out执行上采样处理,使其能够与P4_out在尺寸上对齐并融合。经过这一多尺度特征金字塔的融合机制后,最终产生了三个融合后的特征层,这些特征层专为检测不同大小的目标而设计。
本文所涉及的所有资源的获取方式:这里
2.2 训练检测模型
2.2.1 准备数据集
要在自己的数据集上训练YOLOX模型,首先我们需要根据VOC数据集的格式准备自己的数据集,并将数据集存放在VOCdevkit文件夹中。准备完数据集后,需要运行voc_annotation。py文件随机按比例为1:9生成模型可用的数据集标签,只需要运行voc_annotaion.py就行。
数据集准备完成后,我们就来到了train.py文件,这是训练YOLOX模型用的,重要的参数在代码中有注释
2.2.2 训练自己的权重文件
我们仅需调整voc_classes.txt文件的内容,该文件的作用是向模型指明数据集中包含的类别总数。至于model_path参数,它指向的是模型的预训练权重文件路径。在针对自定义数据集进行训练时,采用官方预训练的权重文件作为起点,能显著提升模型的预测准确性。训练轮数被设定为100轮,这意味着模型将遍历数据集,对每张图片进行100次学习。训练过程中,会生成模型的权重文件,这些文件会被保存在log文件夹内,以供后续进行检测时使用。
2.2.3 使用自己的权重文件
在模型训练完成后,我们只需要修改yolo.py文件中的几个地方,就能用我们自己训练的模型了。
一是修改权重文件的路径,我们训练得到的权重文件,训练的权重文件默认存放在log文件夹中,我们需要从中里面选一个loss损失值最低的作为检测时的权重文件。二是将classes_path修改成我们自己数据集的类型文件。这样检测模型就配置完成了。
3.系统可视化
系统使用了PyQt5作为可视化工具,PyQt和C++中的qt类似,具有良好的交互性,包含了日常开发常用的控件,像显示提示控件QLabel,按钮QPushbotton,输入框控件TextBrowser等,并且实现了信号槽机制,能够简单快速的获取页面控件和响应事件。系统整体效果如下:
系统整体布局为线性垂直布局,从上至下依次为系统标题、功能区和显示区。显示区为监测的实时画面显示,这里通过QLabel控件来作为一个容器,来接受opencv库中的视频流。
系统实现了实时摄像头监测功能和上传视频监测功能,
3.1 打开摄像头
当用户点击打开摄像头后,系统将打开电脑的默认摄像头进行画面获取,并将获取的画面进行监测,这里最重要的代码就是定时器函数,因为用户点击打开摄像头后,只是一个瞬间事件,而系统需要将摄像头拍摄的画面进行实时检测,这是一个连续性事件,而下面这两行代码很重要
self.timer_camera = QtCore.QTimer()
self.timer_camera.timeout.connect(self.show_camera) # 将timeout绑定槽函数show_camera
self.timer_camera = QtCore.QTimer()定义了定时器,并通过信号槽self.timer_camera.timeout.connect(self.show_camera)进行了检测事件绑定。
打开摄像头按钮代码如下:
def open_camera_btn(self):if not self.timer_camera.isActive(): # 定时器未启动flag = self.cap.open(self.CAM_NUM)if flag == False:msg = QtWidgets.QMessageBox.warning(self.window, '警告!', "请检查摄像头是否连接正确",buttons=QtWidgets.QMessageBox.Ok)else:self.timer_camera.start() # 设置30毫秒后,定时器将每隔30毫秒调用timeout函数self.open_camera.setText('关闭监测')# 关闭检测按钮事件else:self.timer_camera.stop()self.cap.release()self.label_show_camera.clear() # 清空视频显示区域self.open_camera.setText('开始监测')
这里就比较简单了,只需判断当前定时器是否被打开,如果没有就去打开摄像头,并启动定时器,再把摄像头的提示文字修改一下,改为“关闭摄像头”,当用户再次点击按钮时,就可以关闭摄像头,并将定时器暂定,一个按钮实现启动和关闭功能。
3.2 上传视频监测
上传视频监测按钮整体功能与打开摄像头类似,只需要将视频流进行更改,这里通过QFileDialog.getOpenFileName()函数来实现打开资源文件窗口进行视频选择,并将选择的视频文件的绝对路径进行返回,这样就能将视频的绝对路径传给opencv进行视频流读取:
上传视频文件监测按钮代码如下:
def video_detect_btn(self):fileUrl, _ = QFileDialog.getOpenFileName(self, "Open Video File", QDir.currentPath(),"Video Files (*.mp4 *.avi *.mov *.wmv);;")# 视频选择成功if fileUrl:print(fileUrl)self.label_video_url.setText(fileUrl)if not self.timer_camera.isActive(): # 定时器未启动flag = self.cap.open(fileUrl)if flag == False:msg = QtWidgets.QMessageBox.warning(self.window, '警告!', "请检查摄像头是否连接正确",buttons=QtWidgets.QMessageBox.Ok)else:self.timer_camera.start() # 设置30毫秒后,定时器将每隔30毫秒调用timeout函数
点击上传监测视频后,将打开资源文件窗口进行视频文件选择,效果如下:
用户选择完成后,将开始逐帧检测。
3.3 统计结果显示
页面中的结果显示也采用了垂直线性布局的方式,效果如下:
目标种类和统计结果两个垂直线性布局包裹在一个QWidget控件中,QWidget控件使用水平线性布局的方式。行人、汽车和自行车统计结果在show_res_num()中实现,dict是一个字典类型的变量,key为目标类型,value为目标类别对应的个数。
代码为:
label_list = [*dict]all = 0# for i in label_list:# all = all + int(dict.get(i))# self.all_result.setText(str(all))if 'person' in label_list:self.person_num.setText(str(dict['person']))all += int(dict['person'])else:self.person_num.setText('0')if 'car' in label_list:self.car_num.setText(str(dict['car']))all += int(dict['car'])else:self.car_num.setText('0')if 'bicycle' in label_list:self.light_num.setText(str(dict['bicycle']))all += int(dict['bicycle'])else:self.light_num.setText('0')self.all_result.setText(str(all))
4.效果
智能监测平台实现
5.总结
这里的监测模型使用的是旷视科技提出的YOLOX检测模型,并且权重文件也使用的是官方提供的s版,能够检测的类别有二十种,这里只选取了三种监测模型进行了统计结果显示。程序的入口为main函数,并提供了源码。并且较容易对源码进行修改,以训练自己的数据集,针对自己的应用领域。训练自己数据集请看文章的第二部分。
6.训练环境、VOC数据集和exe文件运行说明
训练环境配置和VOC数据集的链接存放在README.MD文件中。
6.1 exe文件运行说明
如果要想自己数据集上训练的系统能够以exe文件方式运行,我们需要将项目进行打包,这里我们推荐使用auto-py-to-exe打包工具,先要进行安装,安装命令
pip install auto-py-to-exe
安装完成后,在我们工程文件夹目录中进入cmd命令框,输入auto-py-to-exe.exe启动打包工具,启动完成后,脚本位置选择工程文件中的main.py文件,之后选择单文件,基于窗口的。之后就可点击转化。
main.exe可执行文件较大,因为其中包含了torch库文件,这里在VOC数据上训练的main.exe文件下载链接也存放在README.MD文件中。将main.exe文件下载后需要放到output文件夹中,output文件下还有两个文件夹分别为ui和model_data。其中ui文件夹中包含了系统运行所需的页面ui文件;model_data文件夹中包含了检测模型的权重文件和类别文件。双击main.exe文件运行时,可能需要等待一点时间等待系统启动。
编程未来,从这里启航!解锁无限创意,让每一行代码都成为你通往成功的阶梯,帮助更多人欣赏与学习!
更多内容详见:这里