行人重识别paper汇总

2021

Learning Generalisable Omni-Scale Representations for Person Re-Identification

code: https://github.com/KaiyangZhou/deep-person-reid

摘要:一个有效的人重识别(re-ID)模型应该学习特征表示,这些特征表示既可以区分长相相似的人,又可以在不进行任何调整的情况下跨数据集进行部署。在本文中,我们开发了新的CNN体系结构来解决这两个挑战。首先,我们提出了一种被称为全尺度网络(OSNet)的重构CNN,以学习不仅捕获不同空间尺度的特征,而且还封装了多个尺度的协同组合,即全尺度特征。基本的构建块由多个卷积流组成,每个流都在一定的尺度上检测特征。在全尺度特征学习中,引入了一个统一的聚合门来动态融合多尺度特征与信道权值。OSNet是轻量级的,因为它的构建块包含了因子分解的卷积。其次,为了改进可泛化特征学习,我们在OSNet中引入实例一化(IN)层来处理跨数据集的差异。此外,为了确定这些IN层在体系结构中的最优位置,我们制定了一个有效的可微体系结构搜索算法。大量的实验表明,在传统的相同数据集设置中,OSNet实现了最先进的性能,尽管它比现有的reid模型要小得多。在更具挑战性但实际的跨数据集设置中,OSNet在不使用任何目标数据的情况下击败了最新的无监督领域自适应方法。
在这里插入图片描述

参考

https://github.com/KaiyangZhou/deep-person-reid

https://paperswithcode.com/task/person-re-identification

猜你喜欢

转载自blog.csdn.net/weixin_42990464/article/details/134920111