学习记录——关UNet、特征图add、cat、相乘、三个 注意力

关于UNet网络

  这部分有利于将下采样的各个阶段的信息在上采样过程中进行整合,就是在上采样的过程中,结合了各个层次的结构信息。
通俗的来讲就是在网络的高层(就是U型的上部分),获取了图形的细节信息(因为这时候图片很大,很多细节可以得以保留)。在网络的底层(U型的下部分),获取了图形的低频信息(感受野很大,便于获取大的轮廓信息)。然后用过skip connection将各个层次的信息保留。使得整个网络可以很好的记住图片的所有信息。这就是我个人的理解。

  在测试过程中,也发现这个网络其实也不是很万能。在细胞类型很多,染色情况复杂,染色深浅不一的实际请款中,网络的性能会大大的降低。他之所以在医学图像中效果这么好,我觉得很大部分原因是医学图像结构比较单一。比如说细胞,肿瘤这些,都是比较固定的结构,所以很好区分。

  另一个问题是unet相对于现在的很多网络来说,都显得层数太浅。参数过少。所以训练的时候很容易的过拟合。将原来的简单的结构改成densenet型的效果,可以增加网络中的超参数。同时,利用迁移学习,加载vgg等网络的与训练权重,也可以很好的提高网络性能,防止落入局部最优和加快网络收敛。

特征图add、cat、相乘

  • 特征图拼接是将多个特征图在通道维度上进行堆叠,以增加特征图的深度。这种方式可以让网络学习不同空间位置的特征,并将它们在同一层级上进行融合。
  • 特征图相加是将多个特征图逐元素相加,以融合它们的信息。这种方式可以加强重要特征并减弱噪音。
  • 特征图相乘是将多个特征图逐元素相乘,以融合它们的信息。这

猜你喜欢

转载自blog.csdn.net/weixin_45464524/article/details/132377563