YOLOv11改进策略【注意力机制篇】| Large Separable Kernel Attention (LSKA) 大核可分离卷积注意力 二次创新C2PSA、C3k2

一、本文介绍

本文记录的是利用 LSKA 大核可分离卷积注意力模块优化YOLOv11的目标检测网络模型LSKA 结合了大卷积核的广阔感受野可分离卷积的高效性,不仅降低计算复杂度和内存占用,而且提高了模型对不同卷积核大小的适应性。本文将其应用到v11中,利用LSKA提高模型对不同尺度目标的检测能力。


专栏目录:YOLOv11改进目录一览 | 涉及卷积层、轻量化、注意力、损失函数、Backbone、SPPF、Neck、检测头等全方位改进

专栏地址:YOLOv11改进专栏——以发表论文的角度,快速准确的找到有效涨点的创新点!

猜你喜欢

转载自blog.csdn.net/qq_42591591/article/details/143445804