Unet语义分割训练数据集流程(学习记录)

首先是语义分割,我所学习的内容来自于b站up主Bubbliiiing的课程,感兴趣也可以去看看

目录

一、源码准备

二、训练步骤


我训练的配置环境

win11+cuda11.3+pytorch1.10.2+python3.6.13

一、源码准备

1.源码下载

可以直接到up主对应的github上进行下载,GitHub - bubbliiiing/unet-pytorch: 这是一个unet-pytorch的源码,可以训练自己的模型

他的代码里面进行了中文说明,对小白很友好

2.训练所需要的模型下载

链接: 百度网盘 请输入提取码
提取码: 6n2c

下载完之后放至源码根目录中model_data文件夹,没有就新建一个

二、训练步骤

1.准备数据集

标注教程可看我上一篇文章分割数据集准备——labelme使用教程_道人兄的博客-CSDN博客

2.制作VOC数据集

        ① 完成步骤1之后,训练前将图片文件和.json放在dataste/before/文件夹下,然后修改json_to_dataset.py文件中的classes,保留background,添加自己的类型

 之后便可以在JPEGImages中看到自己的图片,SegmentationClass看到制作好后的标注文件。

         ②将①图片文件放在VOCdevkit文件夹下的VOC2007文件夹下的JPEGImages中,将标签文件放在VOCdevkit文件夹下的VOC2007文件夹下的SegmentationClass中运行根目录下的voc_annotation.py,从而生成train.txt和val.txt

3.修改参数

①train.py里的num_classes ,num_classes用于指向检测类别的个数+1!训练自己的数据集必须要修改!

 ②运行根目录下的train.py文件就可以开始训练啦~

 有什么疑问或者建议评论区留言~

猜你喜欢

转载自blog.csdn.net/hhb3329/article/details/127710979