本文主要介绍如何通过unet模型来训练自己的图像分割模型。即使没有编程经验,对照步骤执行也能训练模型。文中涉及的显微镜细胞图像分割数据集、模型训练代码(pytorch)、unet中文版论文等资源放于文末获取。
目录
1.论文摘要
2.算法简述
3.代码介绍
4.数据准备
5.模型训练
6.模型使用
7.资源获取(附项目源码和unet中文翻译论文)
▍论文摘要
人们普遍认为,深度神经网络的成功训练需要数千个带标注的训练样本。在本文中,我们提出了一种网络和训练策略,该策略依赖于大量使用数据增强,以便更有效地使用获得的标注样本。该网络结构由捕获上下文的收缩路径和支持精确定位的对称扩展路径组成。我们证明了这样的网络可以从非常少的图像中进行端到端的训练,并且在电子显微镜堆栈中分割神经元结构的ISBI挑战赛上优于先前的最佳方法(滑动窗口卷积网络)。使用在透射光显微镜图像(相差和DIC)上训练的相同网络,我们在这些类别中以较大优势赢得了2015年ISBI细胞跟踪挑战赛。而且网络速度快。在最新的GPU上,512x512图像的分割只需不到一秒钟。
▍ 算法简述
UNet的算法框架主要由编码器和解码器两个部分组成。
编码器使用卷积层和池化层来逐渐减小特征图的尺寸和维度,同时增加特征图的通道数,以便提取输入图像的高级别特征。
解码器则使用反卷积层(或上采样)和卷积层来逐渐还原特征图的大小和维度,最终输出与原始图像大小相同的特征图。
在编码器和解码器之间,UNet还引入了跳连机制,将编码器中相应层的特征与解码器相应层的特征进行连接,以帮助保留更多的空间信息和细节特征。这种跳连机制使得UNet可以利用来自不同层次的特征信息,从而提高图像分割的准确性和鲁棒性。
▍代码介绍
本项目使用unet算法,训练显微镜神经元细胞前景和背景的语义分割图。将神经元细胞的纹理作为前景,其它作为背景。前景使用黑色像素表示,背景使用白色像素表示。
项目目录结构如下:
【data】:存放原始数据
data目录下存放两个文件夹:train文件夹和test文件夹。train文件夹分别存放原始训练图片和对应的语义标签,test文件夹只存放用于测试的图片。其目录结构如下所示。
data\test文件夹:测试数据集
data\train\image文件夹:训练数据集
data\train\label文件夹:训练数据集的语义分割标签
【model】:定义unet网络结构
- unet-model.py:模型主干网络
- unet-part.py:组测unet网络结构的若干卷积模块
【utils】:定义工具文件
- dataset.py:加载data文件夹下的图片和标签
unet:
- best_model.pth:模型训练后保存的权重文件
- train.py:模型训练
- predict.py:模型预测
- requirements.txt:项目相关依赖包
▍数据准备
将原始图片和图片对应语义标签按如下目录结构存放在data目录下。
data
|_train
|_image # 原始图片
|_label # 语义标签图片
|_test
|_image
▍模型训练
1. 环境安装
命令行执行如下命令,安装常规项目依赖库和pytorch以及对应的cuda
pip install -r requirements.txt
pip install torch==1.9.0+cu111 torchvision==0.10.0+cu111 -f https://download.pytorch.org/whl/torch_stable.html
命令行验证pytorch和cuda是否安装成功,打印torch.cuda.is_avaible()为True即安装成功,False则安装失败。
2. train.py文件参数设置
指定训练数据路径:train.py第51行
指定模型权重的保存路径:train.py第53行
3. 启动训练
点击train.py文件直接运行代码,或者命令行执行:
cd unet
python train.py
模型在pycharm编辑器中的训练过程如下所示:
▍模型使用
1. predict.py参数设置
指定测试图片路径:predict.py第40行
指定测试结果保存路径:predict.py第41行
指定用于测试的模型权重:predict.py第44行
2. 推理预测
点击predict.py文件直接运行代码,或者命令行执行:
cd unet
python predict.py
▍ 资源获取
文章中有任何问题欢迎评论区讨论交流。项目资源包括本文的unet源码和unet人工翻译论文。该代码按上文方式运行在windows和linux下均无bug,代码跑不通可评论区留言解决。
标签:训练,模型,py,小白,unet,train,data,源码 From: https://blog.csdn.net/weixin_41575197/article/details/142611505