YOLOv7改进之MAE主干: 超强ConvNeXtV2 升级版结构,当MAE+YOLO卷积高效涨点

目录

1,原理概述

2,代码改进

新增一个convnextv2.py文件,增加以下代码

修改部分

第二步:在yolo.py中加入以下代码

然后在 在yolo.py中配置找到./models/yolo.py文件下里的parse_model函数,将类名加入进去

参考代码

YOLOv7网络配置文件


1,原理概述

原文:https://arxiv.org/abs/2301.00808

在改进的架构和更好的表示学习框架的推动下,视觉识别领域在 2020 年代初期实现了快速的现代化和性能提升。例如,以 ConvNeXt [52] 为代表的现代 ConvNet 在各种场景中都表现出了强大的性能。虽然这些模型最初是为使用 ImageNet 标签的监督学习而设计的,但它们也有可能受益于自我监督学习技术,例如掩码自动编码器 (MAE) [31]。然而,

猜你喜欢

转载自blog.csdn.net/qq_53545309/article/details/142603214