Paper Reading -- CBAM: Convolutional Block Attention Module

论文:CBAM: Convolutional Block Attention Module

1. Motivation

受SENet启发,作者在channel attention后面再加上一个spatial attention,既实现了通道注意力机制也实现了空间注意力机制。

2. Structure

  • CBAM
    在这里插入图片描述
    可以看到,相比SE Block,串行的添加了一个spatial attention,而csSENet是将channel attention和spatial attention做了一个并行。
  • 具体结构
  • 在这里插入图片描述
    作者还做了一个改进,在AvgPool的基础上增加了MaxPool,实验结果表明,两种类型的池化的效果比单一的平均池化效果好。
    在这里插入图片描述
    CBAM和SE block一样,可以很方便的添加到ResBlock中
    在这里插入图片描述
    attention玩坏了,那接下来玩啥呢?
发布了13 篇原创文章 · 获赞 22 · 访问量 1万+

猜你喜欢

转载自blog.csdn.net/zxdd2018/article/details/104519790