YOLO7改进主干Conv2Former结构系列:超越ConvNeXt结构,结合Conv2Former改进结构,Transformer 风格的卷积网络视觉基线模型,高效涨点

1,理论部分

Vision Transformers 由于具有很强的全局信息编码能力,是近年来视觉识别领域最流行的网络架构。但是,在处理高分辨率图像时,其高计算成本限制了下游任务中的应用。在本文中,我们深入研究了自我注意的内部结构,并提出了一种用于视觉识别的简单 Transformer 风格卷积神经网络 (ConvNet)。通过比较最近的 ConvNets 和 Vision Transformers 的设计原理,我们建议通过利用卷积调制操作来简化自我注意力。我们表明,这种简单的方法可以更好地利用大型内核 (≥7

猜你喜欢

转载自blog.csdn.net/qq_53545309/article/details/142615462