YOLOv11改进策略【注意力机制篇】| WACV-2021 Triplet Attention - 跨维度交互注意力机制优化

一、本文介绍

本文记录的是利用Triplet Attention模块优化YOLOv11的目标检测网络模型Triplet Attention的作用在于通过三个分支结构捕捉跨维度交互,同时包含通道信息和空间信息,克服了常见注意力方法中通道和空间分离计算以及未考虑跨维度交互维度缩减的问题。相比一些传统注意力机制,能更好地表达网络特征。本文将其应用到v11中,并进行二次创新,使网络能够综合多种维度信息,更好地突出重要特征,从而提升模型在不同任务中的性能。


专栏目录:YOLOv11改进目录一览 | 涉及卷积层、轻量化、注意力、损失函数、Backbone、SPPF、Neck、检测头等全方位改进

专栏地址:YOLOv11改进专栏——以发表论文的角度,快速准确的找到有效涨点的创新点!

猜你喜欢

转载自blog.csdn.net/qq_42591591/article/details/143330919