softmax整理

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/yangjf91/article/details/79298086

softmax来由

  阅读Softmax vs. Softmax-Loss: Numerical Stability的总结
  softmax函数的定义:

σ i ( z ) = e z i j = 1 m e z j , i = 1 , 2 , . . . , m z i = w i T x + b i

  式中z是第i个类别的线性预测结果,softmax对z进行指数运算使其变为非负,然后除以所有项之和进行归一化。 σ i ( z ) 也就是数据x属于类别i的概率,学术中称为最大似然(likelihood)。
  如果已知x对应的类别是y,则 σ y ( z ) 应该表现出大概率结果,即最大化。这里需要注意的是, σ y ( z ) 是一个归一化的正数,值域为[0,1],其最大化情况下损失函数应最小化(接近0)。损失函数通常是使用 negative log-likelihood 而不是 likelihood,也就是说最小化 l o g ( σ y ( z ) ) 的值,因此第y类的softmax-loss的定义为:
L y , z = l o g ( e z y j = 1 m e z j ) = l o g ( j = 1 m e z j ) z y

  因此在反向传播计算梯度时:
L y , z z k = e z k j = 1 m e z j δ k y = σ k ( z ) δ k y δ k y = { 1 , k = y 0 , k y

  softmax的问题是当线性概率z的值过大过小时,通过指数运算可能导致underflow和overflow,也就是输出值为NAN。解决办法是:对于overflow,使每一个线性概率减去最大值,使线性概率的最大值为0,再进行指数运算;对于underflow,由于最后结果为0,与实际情况非常近似,因此不再考虑。
  

softmax的演变

1、原始softmax

  由上所示,针对多类别的softmax损失函数:

L S = 1 n i = 1 n log ( e W y i T x i + b y i j = 1 n e W j T x i + b j )

   x i 表示第i维深度特征,属于第 y i 类,W表示最后一个全连接层中第j列的权重值,b是偏置项。
  

2、权重归一化(Large Margin Softmax

  研究人员发现训练样本中各类别的样本数量以及测试样本的不同分布,最后所得模型提取得特征存在类内方差大、类间差异不明显的问题,严重影响到了模型的性能。
softmax的问题
通过取消b,并对权重归一化,可得:

W j T x i = W j x i c o s θ j L L S = 1 n i = 1 n log e | | x i | | c o s ( θ y i ) e | | x i | | c o s ( θ y i ) + j = 1 , j y i c e | | x i | | c o s ( θ j )

  权重归一化针对样本数据不足时,通过先念知识提升性能。但样本不均衡的问题仍然存在,norm后仍然和二范数、样本数、样本总质量正相关。样本数稀少的类别会导致每次训练反传时产生几乎一样的作用,而所有类别的分布初始化是独立同分布的,经过大致相同的训练过程可能出现混叠的情况。可参考 知乎博文
  

3、SphereFace(Multiplicative Angular Margin)

  SphereFace中对角度添加裕量m,并将余弦函数改为分段函数:

ψ ( θ y i ) = ( 1 ) k c o s ( m θ y i ) ) 2 k + λ c o s θ y i ) 1 + λ , θ [ k π m , ( k + 1 ) π m ]

L A S = 1 n i = 1 n log e | | x i | | ψ ( θ y i ) e | | x i | | ψ ( θ y i ) + j = 1 , j y i c e | | x i | | c o s ( θ j )

  超参数 λ 从1000逐渐降到5来收窄每一类的角度空间,但也加大了模型训练的难度。
  

4、特征归一化(AM-Softmax

  有研究人员继续对特征进行归一化处理,进一步化简公式。
角裕度
  高质量人脸的L2范数较大,低质量的人脸L2范数较小,通过特征归一化能提高当前深度学习框架对人脸验证的性能。特征归一化和权重归一化的目的是消除径向变化,使每一个特征都分别在超球面上。余弦裕度损失函数如下:

ψ ( θ ) = c o s θ m

L A M S = 1 n i = 1 n log e s ( c o s ( θ y i ) m ) e s ( c o s ( θ y i ) m ) + j = 1 , j y i c e s c o s θ j

  其特点为 :易实现、易收敛、性能好。该方法在质量较差的数据集上能取得好的效果,但在质量好的数据集上效果不如不进行特征归一化的模型。
  

5、ArcFace

  角度上的裕度相当于超球面的弧度,相较余弦裕度有更清晰的几何解释。

L A r c F a c e = 1 n i = 1 n log e s ( c o s ( θ y i + m ) ) e s ( c o s ( θ y i + m ) ) + j = 1 , j y i c e s c o s θ j

c o s ( θ + m ) = c o s θ c o s m s i n θ s i n m

  作者认为相较于余弦裕度,本公式的magin值能通过 s i n θ 实现动态调整。
几何解释
  PS:个人感觉那个 c o s ( θ 1 + m ) 的点应该是绿色角顶点映射到权重向量的位置,也就是说少了一条虚线。
  

6、CCL & AAM

  有的研究人员认为对特征直接进行L2归一化并不能改变特征所在的象限,而且其中还涉及一些超参数调节问题。对于SphereFace,作者定义了对特征x的处理函数,因此:

L s f = i = 1 n log e | | Φ ( x i ) | | c o s ( m θ y i ) j = 1 c e | | Φ ( x i ) | | c o s ( θ j )

Φ ( x i ) = x i ο i σ i

   ο , σ i 分别是 x , x i 的均值向量、标准偏差,通过相似度比较函数对原点矩阵非常敏感,因此需要设置一个很大的衰减因子来更新原点矩阵和方差:
{ ο n e w = ρ ο o l d + ( 1 ρ ) ο b σ n e w = ρ σ o l d + ( 1 ρ ) σ b

  由于相似度比较对 ο 非常敏感,因此设置 ρ 为0.995来保证每次迭代时不会变化很大。
  为了降低超参数的调节难度,作者提出自适应参数 η ,并得到:
L A A M = i N l o g ( p y i A A M )

p y i A A M = e | | Φ ( x i ) | | c o s ( η θ y i ) e | | Φ ( x i ) | | c o s ( η θ y i ) + k y i e | | Φ ( x i ) | | c o s ( η θ k )

η = { 1 , π / 3 < θ y i <= π ; π / 3 θ y i , π / 30 < θ y i <= π / 3 ; 10 , θ <= π / 30.

  作者认为大角度差异导致的梯度足够反向传播,设置系数为1;小角度差异下为了保证相同的反向传播力度,设置系数为10;在中间情况下,更小的角度差异需要更大的margin系数来保证分类性能。
  作者提示单独使用AAM-softmax不稳定,因此和SphereFace的损失函数相结合,其平衡系数 λ = 3
L = λ L s f + L A A M λ + 1.0

  

softmax的问题

  ArcFace中曾提到:

Due to the limitation of GPU memory, it is hard to train Softmax-based methods,e.g. phereFace, CosineFace and ArcFace, with millions of identities.

  不太清楚具体指什么原因。
  第二个问题是知乎博文中提到的当前样本均衡难以解决的问题,导致以计算类中心的方法难以提升到更好的效果。
  
  
  

猜你喜欢

转载自blog.csdn.net/yangjf91/article/details/79298086