上效果图:
首先是不加qt界面的演示效果
由于我们要在qt界面上演示,这里相比上一个版本,取消了鼠标设置检测区域的功能,只能在代码里手动修改。
然后是qt界面的效果图如下:
算法部分
本次是目标跟踪代码,用于检测行人,
代码运行
只要运行01ui_yolov5.py即可。会显示一个pyqt的界面,然后有两个按钮,第一个按钮用于上传要检测的本地视频。第二个按钮是用于目标跟踪视频中的行人。
其他文件,如weights下存放的模型文件,这里直接用原始的coco数据集模型即可。
然后video文件夹下是待检测的视频文件。
main主函数代码如下:
import nu