YOLO11改进|注意力机制篇|引入Mamba注意力机制MLLAttention

在这里插入图片描述

一、【MLLAttention】注意力机制

1.1【MLLAttention】注意力介绍

在这里插入图片描述

下图是【MLLAttention】的结构图,让我们简单分析一下运行过程和优势

处理过程

  • MLLA Block:
  • MLLA 模块的核心是其线性注意力机制,输入首先通过一个 线性变换(Linear),对输入特征进行降维或转化。
  • 接着,线性注意力(Linear Attention) 被应用在变换后的特征上。线性注意

猜你喜欢

转载自blog.csdn.net/A1983Z/article/details/142895339