YOLO11改进|注意力机制篇|引入Mamba注意力机制MLLAttention 企业开发 2024-11-06 19:11 0 阅读 目录 一、【MLLAttention】注意力机制 1.1【MLLAttention】注意力介绍 1.2【MLLAttention】核心代码 二、添加【MLLAttention】注意力机制 2.1STEP1 2.2STEP2 2.3STEP3 2.4STEP4 2.5STEP5 三、yaml文件与运行 3.1yaml文件 3.2运行成功截图 一、【MLLAttention】注意力机制 1.1【MLLAttention】注意力介绍 下图是【MLLAttention】的结构图,让我们简单分析一下运行过程和优势 处理过程: MLLA Block: MLLA 模块的核心是其线性注意力机制,输入首先通过一个 线性变换(Linear),对输入特征进行降维或转化。 接着,线性注意力(Linear Attention) 被应用在变换后的特征上。线性注意 猜你喜欢