反向传播以及梯度消失(爆炸)问题总结


1 参数说明

这里写图片描述


2 反向传播

  为了弄清楚为何会出现消失的梯度,来看看一个极简单的深度神经网络(详细理论推导请看本博客第7节内容):每一层都只有一个单一的神经元。下面就是有三层隐藏层的神经网络:

这里写图片描述

σ 表示sigmoid激活函数, L L o s s 也可以用 C C o s t 表示

这里写图片描述
Note:导数值小于0.25

其中

z 1 = x w 1 + b 1
a 1 = σ ( z 1 )

z 2 = a 1 w 2 + b 2
a 2 = σ ( z 2 )

z 3 = a 2 w 3 + b 3
a 3 = σ ( z 3 )

z 4 = a 3 w 4 + b 4
a 4 = y = σ ( z 4 )

代入推导出:

y = a 4 = σ ( z 4 ) = σ ( a 3 w 4 + b 4 ) = σ ( σ ( a 2 w 3 + b 3 ) w 4 + b 4 ) = σ ( σ ( σ ( a 1 w 2 + b 2 ) w 3 + b 3 ) w 4 + b 4 ) = σ ( σ ( σ ( σ ( x w 1 + b 1 ) w 2 + b 2 ) w 3 + b 3 ) w 4 + b 4 )

C = f ( y )

eg:
C = ( y y ^ ) 2


C = f ( σ ( σ ( σ ( σ ( x w 1 + b 1 ) w 2 + b 2 ) w 3 + b 3 ) w 4 + b 4 ) )

部分变量求导关系:

a 4 a 3 = σ ( z 4 ) w 4

a 3 a 2 = σ ( z 3 ) w 3

a 2 a 1 = σ ( z 2 ) w 2

C w 1 求导结果为:

C w 1 = C a 4 a 4 a 3 a 3 w 1 = = C a 4 a 4 a 3 a 3 a 2 a 2 a 1 a 1 w 1

= C a 4 σ ( z 4 ) w 4 σ ( z 3 ) w 3 σ ( z 2 ) w 2 σ ( z 1 ) x

同理 C b 1 求导结果为:

C b 1 = C a 4 σ ( z 4 ) w 4 σ ( z 3 ) w 3 σ ( z 2 ) w 2 σ ( z 1 )

C w 2 求导结果为:

C w 2 = C a 4 a 4 a 3 a 3 w 2 = = C a 4 a 4 a 3 a 3 a 2 a 2 w 2

= C a 4 σ ( z 4 ) w 4 σ ( z 3 ) w 3 σ ( z 2 ) a 1

同理 C b 2 求导结果为:

C b 2 = C a 4 σ ( z 4 ) w 4 σ ( z 3 ) w 3 σ ( z 2 )


3 梯度消失

这里写图片描述

这里写图片描述

比较一下 C b 1 C b 3 可知, C b 1 要远远小于 C b 3

因此,梯度消失的本质原因是: w j σ ( z j ) < 1 4 的约束。


4 梯度爆炸(激增)

网络的权重设置的比较大且偏置使得 σ ( z j ) 项不会太小。


5 梯度不稳定

  不稳定的梯度问题:根本的问题其实并非是消失的梯度问题或者激增的梯度问题,而是在前面的层上的梯度是来自后面的层上项的乘积。当存在过多的层次时,就出现了内在本质上的不稳定场景。唯一让所有层都接近相同的学习速度的方式是所有这些项的乘积都能得到一种平衡。如果没有某种机制或者更加本质的保证来达成平衡,那网络就很容易不稳定了。简而言之,真实的问题就是神经网络受限于不稳定梯度的问题。所以,如果我们使用标准的基于梯度的学习算法,在网络中的不同层会出现按照不同学习速度学习的情况。

6 梯度消失、爆炸的解决方案

详解机器学习中的梯度消失、爆炸原因及其解决方法

  • 方案1 预训练加微调(Hinton)
  • 方案2 梯度剪切(设置阈值,控制爆炸)、正则(控制爆炸)
  • 方案3 relu、leakrelu、elu等激活函数
  • 方案4 batchnormbatchnorm全名是batch normalization,简称BN,批规范化,通过规范化操作将输出信号x规范化到均值为0,方差为1保证网络的稳定性
  • 方案5 残差结构
  • 方案6 LSTM

7 反向传播公式推导

  第2节用一个简单的网络推导了反向传播公式,本节用复杂的网络进行详细的推导(内容来自Backpropagation

7.1 问题描述

这里写图片描述

7.2 Chain rule

这里写图片描述

  第二节我们采用 C w = C a a w 链式法则,比较直观一点,此节,我们采用 C w = C z z w 链式法则,大同小异! a z 都是中间变量而已,一个作为layer的输出,一个作为layer的输入!

这里写图片描述

7.2.1 First Term

  链式求导法则的第一部分,分两种情况,一种是layer大于1,一种是layer等于1时

这里写图片描述

这里写图片描述

7.2.2 Second Term

  用符号 δ 来代替链式求导的第二部分

这里写图片描述

  结合下图可以看出,Second Term的求解落脚到两个问题

  • How to compute δ L
  • The relation of δ l and δ l + 1

这里写图片描述

1) How to compute δ L

这里写图片描述

2) The relation of δ l and δ l + 1

这里写图片描述

  化简一下

这里写图片描述

  反向传播浮现庐山真面目

这里写图片描述

  进一步化简,用向量表示

这里写图片描述

7.3 Summary

这里写图片描述

7.4 Compare with forward propagation

这里写图片描述

7.5 Verification

这里写图片描述

第2节 C w 1 求导结果为:

C w 1 = C a 4 σ ( z 4 ) w 4 σ ( z 3 ) w 3 σ ( z 2 ) w 2 σ ( z 1 ) x

第7节 C w 1 求导结果为:

C w 1 = C z 1 z 1 w 1 = δ 1 x

= σ ( z 1 ) w 2 δ 2 x

= σ ( z 1 ) w 2 σ ( z 2 ) w 3 δ 3 x

= σ ( z 1 ) w 2 σ ( z 2 ) w 3 σ ( z 3 ) w 4 δ 4 x

= σ ( z 1 ) w 2 σ ( z 2 ) w 3 σ ( z 3 ) w 4 σ ( z 4 ) C y x

= σ ( z 1 ) w 2 σ ( z 2 ) w 3 σ ( z 3 ) w 4 σ ( z 4 ) C a 4 x

  结果一样,推导没问题,美滋滋!!!


参考资料

【1】[Machine Learning] 深度学习中消失的梯度

【2】神经网络梯度消失的解释

【3】梯度下降法解神经网络

【4】详解机器学习中的梯度消失、爆炸原因及其解决方法

【5】Backpropagation(李宏毅老师上课PPT)

猜你喜欢

转载自blog.csdn.net/bryant_meng/article/details/79902945
今日推荐