U-Net-论文笔记-理解:U-Net: Convolutional Networks for Biomedical Image Segmentation

论文:U-Net: Convolutional Networks for Biomedical Image Segmentation

GitHub源码地址:
https://lmb.informatik.uni-freiburg.de/people/ronneber/u-net/
https://github.com/zhixuhao/unet
https://github.com/yihui-he/u-net
http://blog.leanote.com/post/zongwei/Pa
http://blog.csdn.net/hjimce/article/details/50268555

翻译:

理解参考:
https://blog.csdn.net/qq_19784349/article/details/78580022
https://blog.csdn.net/zhangjunhit/article/details/73289655

核心技术:
网路结构
这里写图片描述
网络架构就如上图,可以描述为由收缩路径(左边)和扩张路径组成。收缩路径和传统的卷积网络一样,由卷积核尺寸为3∗3的无填充卷积,每次卷积后都经过ReLU函数作用,以及尺寸为2∗2,步距为2的最大池组成。这个最大池化就是下采样的过程,下采样后就将channels变为2倍。扩张路径由2∗2的上卷积,上卷积的output channels为原先的一半,再与对应的特征图(裁剪后)串联起来(得到和原先一样大小的channels),再经过两个尺寸为3∗3的卷积及经过ReLU作用。相应的裁剪特征图是必须的,因为在我们卷积的过程中会有边界像素的丢失。在最后一层通过卷积核大小为1∗1的卷积作用得到想要的目标种类。在这个网络中,有23个卷积层。
网络采用了常见的Encoder-Decoder结构,并在原本的结构中加入了直接从encoder中截取信息放在decoder中的操作,这个操作可以有效的保留原图中的边缘细节信息,防止过多的边缘信息的丢失.
为了保证输出分段映射的无缝拼接,需要谨慎的选择输入图片的尺寸,以保证所有的Max Pooling操作应用于有偶数的x-size和偶数的y-size的图层。
对于尺寸较大的图像:Overlap-tile strategy
这里写图片描述
网络没有任何完全连接的层,并且仅使用每个卷积的有效部分,即,分割图仅包含在输入图像中可获得完整上下文的像素.

该策略允许通过重叠区块策略无缝分割任意大的图像。为了预测图像的边界区域中的像素,通过镜像输入图像来外推丢失的上下文。这种平铺策略对于将网络应用于大图像很重要,否则分辨率将受到GPU内存的限制。
数据集可用数据数量较少:
可用的训练数据非常少,通过对可用的训练图像应用弹性变形来使用过多的数据增强。这允许网络学习这种变形的不变性,而不需要在注释的图像语料库中看到这些变换。这在生物医学分割中尤其重要,因为变形曾经是组织中最常见的变化,并且可以有效地模拟真实的变形。 Dosovitskiy等人已经证明了在无监督特征学习的范围内学习不变性的数据增加的价值.
通过在一个3*3的粗糙网格中使用一个随机位移向量产生一个平滑的变形,位移量从高斯分布中取样,高斯分布有十个像素的标准差,每个像素的偏移通过bicubic interpolation获得.
相同物体的间隙不容易分割出来:采用加权的策略
许多细胞分割任务中的另一个挑战是分离同一类的接触物体,本文使用加权损失,其中接触单元之间的分离背景标签在损失函数中获得大的权重。以此方法提升对于互相接触的相同物体之间缝隙的分割效果.

突出贡献:
由于医学影像处理本身的特殊性,能够使用用于训练的数据数量还是比较少的,本篇论文提出的方法有效的提升了使用少量数据集进行训练检测的效果.
提出了处理大尺寸图像的有效方法.

The u-net architecture achieves very good performance on very different biomedical segmentation applications. Thanks to data augmentation with elastic deformations, it only needs very few annotated images and has a very reasonable training time of only 10 hours on a NVidia Titan GPU (6 GB). We provide the full Caffe[6]-based implementation and the trained networks. We are sure that the u-net architecture can be applied easily to many more tasks.

缺陷:
**

猜你喜欢

转载自blog.csdn.net/tuzixini/article/details/80886894