CVPR-2017
文章目录
1 Background and Motivation
Human pose estimation, defined as 2-D localization of human joints on the arms,legs,and key-points on torso and the face.
从本文作者的标题可以看出,motivation 很直接,冲着公共数据集的 accurate 去的,don’t say so much
in the wild 指的是场景更复杂,需要统筹人的检测和关键点的检测
2 Related Work
-
part-based models:Pictorial Structures
-
Single-Person Pose:在 MPII 和 FLIC 数据集上表现最好的是 stacked hourglass 方法
-
Top-Down Multi-Person Pose, in which a pose estimator is applied to the output of a bounding-box person detector
-
Bottom-Up Multi-Person Pose, in which keypoint proposals are grouped together into person instances
3 Advantages / Contributions
用热力图和 offset 的方式,配合区域内 voting 机制,实现 SOTA,比 2016 COCO keypoints challenge winner(CMU-Pose) 的效果还好很多
4 Method
Faster RCNN + ResNet-101 for person detection
heatmap + offset
OKS-NMS 代替 box-level IOU NMS
提出 keypoint-based confidence score estimator,re-score the detection based on the estimated keypoints
4.1 Person Box Detection
Faster RCNN + ResNet-101
配合 atrous convolution 来保持分辨率,按文中描述分辨率最低为 1/8,相当于只有三个 stage
4.2 Person Pose Estimation
用回归的方法,【DeepPose】《DeepPose:Human Pose Estimation via Deep Neural Networks》 直接回归难度有点大,且无法有效的解决重叠时一个 patch 中有多个关键点情况(比如下面的图,有很多肩膀,你最后肩膀回归在哪都说的过去,但是可能不是同一个人的了,这样就不行)
用分类的方法,也即热力图的方法,精度受限于 output features 的分辨率
作者结合分类和回归的方法,用热力图预测出大致的位置,回归方法预测出 offset 来精修 key-points
作者说这种灵感来源于 two-stage 的 object detection(在一阶段的基础上 refine),哈哈哈,天道有轮回,后续流行的 anchor-free 的 object detection 都有作者方法的影子,也即 heatmap+offset,例如,FCOS,CenterNet,CornerNe
1)Image Cropping
保证输入 bbox 的 aspect ratio 是一样的,然受 resize 到 353×257,训练的时候 bbox 外扩 1~1.5倍随机(更多的 context 信息),evaluate 的时候 re-scale 1.25
2)Heatmap and Offset Prediction with CNN
输出通道数为 3K,K 是数据集关键点的个数,3 由 1 通道的热力图和 2 通道的 coordinate offset 构成
输出分辨率大小为原图的 1/8,然后双线性插值到输入大小 353×257(目前流行的做法是输出 1/4,GT 也弄成 1/4)
下面探讨下定位的形式
方式一:ideally delta function,热力图精准打击,无须 offset
f k ( x i ) = 1 f_k(x_i) = 1 fk(xi)=1 如果 k-th keypoint( k ∈ { 1 , . . . , K } k \in \{1,...,K\} k∈{ 1,...,K}) is located at position x i x_i xi( i ∈ { 1 , . . . , N } i \in \{1,...,N\} i∈{ 1,...,N},N = 353×257 )
直接回归坐标(精准打击)是比较困难的,作者采用如下的范围攻击方式
方式二:unit-mass delta function,热力图范围攻击,配合 offset 精修(佐助和鸣人的变身术配合影风车)
热力图 h k ( x i ) = 1 h_k(x_i) = 1 hk(xi)=1 如果 ∣ ∣ x i − l k ∣ ∣ ≤ R ||x_i - l_k|| ≤ R ∣∣xi−lk∣∣≤R,也即 point x i x_i xi 在 location l k l_k lk 的半径为 R R R 内都有效(实验中 R 为 25)
这种热力图形式就是二分类,在关键点范围内就是 1,否则就是 0(计算每个位置是关节点的概率)
热力图的表达形式我们清楚了,offset 形式为 F k ( x i ) = l k − x i F_k(x_i) = l_k - x_i Fk(xi)=lk−xi
最终热力图+offset 聚合成 highly localized activation maps f k ( x i ) f_k(x_i) fk(xi) 的过程如下所示
聚合的公式表达如下
f k ( x i ) = ∑ j 1 π R 2 G ( x j + F k ( x j ) − x i ) h k ( x j ) f_k(x_i) = \sum_j \frac{1}{\pi R^2}G(x_j + F_k(x_j) - x_i)h_k(x_j) fk(xi)=j∑πR21G(xj+Fk(xj)−xi)hk(xj)
- G ( ⋅ ) G(\cdot) G(⋅) 是 bi-linear interpolation kernel
- F k ( x i ) = l k − x i F_k(x_i) = l_k - x_i Fk(xi)=lk−xi
- i i i 表示区域内当前位置, j j j 表示区域内除了 i i i 之外点的位置(要参与投票的点)
假设网络学出来的 offset F k ( x j ) F_k(x_j) Fk(xj) 是完美的,那么 F k ( x j ) = l k − x j F_k(x_j) = l_k-x_j Fk(xj)=lk−xj,上述公式中 x j + F k ( x j ) − x i x_j + F_k(x_j) - x_i xj+Fk(xj)−xi 这一项就变成了 l k − x i l_k-x_i lk−xi,每个位置都一样, ∑ \sum ∑ 后再平均也一样,配合热力图的结果,能得到最终的 fused activation maps
然而网络一般学习到的 offset 是有偏差的,也即 F k ( x j ) ≠ l k − x j F_k(x_j) ≠ l_k-x_j Fk(xj)=lk−xj ,作者这里用 G G G 函数进行插值学出来该方向的一个 weight(G 的作用应该是不同方向 weight 不一样,预测出来的 offset 向量 F k ( x j ) F_k(x_j) Fk(xj) 和当前位置与 GT 点构成的向量 l k − x j l_k-x_j lk−xj 的偏差越大,作用到 h k ( x j ) h_k(x_j) hk(xj)上的权重越小),然后和当前位置热力图的预测结果 h k ( x j ) h_k(x_j) hk(xj) 加权组合在一起(参考 Towards Accurate Multi-person Pose Estimation in the Wild 论文阅读 中的评论)
上述聚合的形式 is a form of Hough voting:
each point j j j in the image crop grid(353×257)casts a vote with its estimate for the position of every key-point, with the vote being weighted by the probability that it is in the disk of influence of the corresponding keypoint(范围内的点都在发挥着自己的作用,来寻找最优的 key-point location,注意这里公式的形式哈,圈圈内的热力点都在做贡献,然后根据插值结果的权重加权在了一起)
Hough voting 可以用下面的简单例子说明(来自 【OpenCV学习笔记】之霍夫变换(Hough Transform))
例如,检测图形中的直线,根据直线方程 y = a x + b y = ax + b y=ax+b 可知,确定斜率 a a a 和截距 b b b 就可以求得直线方程,原图像坐标空间的一个点,对应参数空间的一条线,两个点对应两条线,n 个点对应 n 条线,然后投票取最大值(重叠最多的点),确定交点 a 0 , b 0 a_0,b_0 a0,b0,进而得到直线的方程
上图以两个点的求解为例
3)Model Training
热力图分支(分类分支)采用的是 logistic losses(二分类), ∣ ∣ x i − l k ∣ ∣ ≤ R ||x_i-l_k||≤R ∣∣xi−lk∣∣≤R 内 label 为 1,外 label 为 0(区别于现在的高斯 label)
offset 分支采用的是 Huber robust loss(类似于 smooth L1)
参考 Huber robust error function
具体损失如下:
整体损失如下
L h ( θ ) L_h(\theta) Lh(θ) 表示 heatmap 分支的 loss
λ h \lambda_h λh 和 λ o \lambda_o λo 分别为 4 和 1,是加权的权重
4)Pose Rescoring
每张热力图中相应最高的点的 score 求和取平均,得到 score,来评估关键点的质量
关于这点作者后面实验没有进行 ablation,可惜了
5)OKS-Based Non Maximum Suppression
检测人时,用到 NMS 后处理,根据 IoU 来抑制重叠度较高的框
作者在 IoU-NMS 的基础上,对 pose estimation 的最终结果还进行了一下 OKS-Based NMS——measure overlap using the object keypoint similarity(OKS) for two candidate pose detection!
5 Experiments
5.1 Datasets
- MS COCO
- MS COCO+internal
5.2 COCO Keypoints Detection State-of-the-Art
下面是展示的部分例子,给小的假人也标出来了是真的搞笑
5.3 Ablation Study:
1)Box Detection Module
两个检测人的模型在 COCO 数据集上的 AP 为
0.466 and 0.500 for mini-val
0.456 and 0.487 for test-dev
人检测器的质量还是有一定影响的,但是加了 GT 后 AP 也才 70(我是三年后说的这句话),关键点检测的算法还有一定的提升空间
PS:测试人形检测器对关键点检测影响大不大时,可以用 GT 人来测关键点检测的 AP
2)Pose Estimation Module
对 backbone 和 input size 进行了消融
5.4 OKS-Based Non Maximum Suppression
person box detector 的 IoU-NMS 阈值设置为了 0.6
6 Conclusion
- COCO,17 keypoints(12 body joints and 5 face landmarks)
- Top-Down 型式的 human pose estimation 和 object detection 中的 two-stage 类似,第一阶段检测人,第二阶段在第一阶段的基础上检测关键点
- Huber robust loss 类似于 smooth L1
- Pose Rescoring 来评估关键点的检测质量
- 测试人形检测器对关键点检测影响大不大时,可以用 GT 人来测关键点检测的 AP