Application norm in machine learning

       Application norm in depth learning loss as a function of regularization options, thereby reducing the model over-fitting case. Before continuing to explain the regularization, we introduce the less fit, the concept of over-fitting.

Question 1 norm to be solved OVERFITTING

       Suppose there is a series of points within the coordinate system, all points on a quadratic curve with noise. Now we do not know these data points on the quadratic curve, but hopes a function to fit out a line, so that this line can close these points as much as possible, this line is the model we get. The first column to the third column are sequentially shown in FIG. 1 is poor fitting, normally fit and overfitting.


Figure 1 underfitting, normal fitting, over-fitting case


Performance Analysis Table 1 underfitting, normal fit, too fit
situation which performed Training set accuracy The accuracy of the test set
Underfitting By (y = ax + b \) \ fitting quadratic function noisy data A difference (FIG. 1 1 row 1) Difference (two rows in FIG. 1 1)
Normal fit A \ (y = ax ^ + bx + c \ {2}) fitting a quadratic function noisy data Preferred (FIG. 1 1 row 2) Preferred (FIG. 1 in two rows and two columns)
Overfitting A \ (y = ax ^ {5 } + bx ^ {4} + cx ^ {3} + dx ^ {2} + ex + f \) fitting a quadratic function noisy data Very good (FIG. 1 1 row 3) Very poor (line 12 in FIG. 3)

       1 are less fit, fitting and overfitting normal, will be described separately as shown in these situations:

       Underfitting, as determined by a linear function with coefficients to fit the noise data generated by a quadratic function, it represents the model is too simple, the fitted model is difficult to reflect the distribution of samples (loss of value over the training set 6.676), model in the training set accuracy is not high (on the test set loss value is higher than the training set, to 717.203).

       正常拟合,如同用待定系数的二次函数的去拟合一个由二次函数产生的带噪声数据,拟合出来模型基本能反映样本的分布情况,且不会受到样本的误差的影响(在训练集上损失值为比较低,为1.903)。模型在训练集和验证集上准确率都令人满意(在测试集上损失值为17.03)。

       过拟合,如同用待定系数的五次函数的去拟合一个由二次函数产生的带噪声数据,得到的拟合函数能非常完美的模拟样本的分布(在训练集上损失值非常低,为0.011),但也把样本误差等因素都拟合了进去,导致模型的泛化能力大大下降。模型在训练集上准确率非常高,但在验证集上准确率往往很差 (在训练集上损失值非常大,为451687.062)。

       通常在过拟合情况下,训练过程中模型复杂度增加,模型在训练集上的错误率逐渐减小,但是在验证集上的错误率却反而逐渐增大——因为训练出来的模型过拟合了训练集(直观解释就是模型增加了只适用于训练集的参数,如图1所示用高次函数拟合一个二次函数的数据集)。

2 范数如何解决过拟合——正则化

       我们不希望在深度学习模型训练中出现过拟合情况,我们要用一些手段防止过拟合。即让模型不出现用高次函数去拟合二次函数产生的带有噪声的数据的情况,高次函数拟合效果虽好但也拟合了数据噪声。我们应让模型尽可能表现为用待定系数的二次函数去拟合二次函数产生的带有噪声的数据。如果要让模型不出现的过拟合情况,需要让模型权值向量W中元素个数尽可能少,对于拟合二次函数的问题来说,模型求解得到的权值向量中元素个数应该是2,而不是其他。一个向量的元素个数正好是向量的L0范数,因此让模型权值向量W中项的个数最小化其实等于优化min||w||0,这样过拟合解决方案和范数就建立了联系。对于深度学习原问题优化的目标从单目标函数优化

\[\min \;Loss\left( {{\bf{\omega }},{\bf{x}}} \right)\]

       变成了双目标函数优化任务

\[\left\{ \begin{array}{l} \min \;Loss\left( {{\bf{\omega }},{\bf{x}}} \right) \\ \min \;{\left\| {\bf{\omega }} \right\|_0} \\ \end{array} \right.\]

       第一个优化任务中目标函数称为经验风险,第二个优化任务中的目标函数叫做正则化项。在深度学习中一般会将这个双目标优化任务合并成单目标优化任务,即

\[\min \;Loss\left( {{\bf{\omega }},{\bf{x}}} \right) + \lambda {\left\| {\bf{\omega }} \right\|_0}\]

       即让经验风险和正则化项之和最小,其中λ是正则化项系数。这样正则化项过大,经验风险再小也不起作用;同样经验风险过大,正则化项再小也不起作用。通常将Loss(w,x) +λ||w||0叫做结构风险。

       在数学最优化问题中,如果目标函数中有L0范数,那么这个最优化问题难以求解,因为求解L0范数是一个NP完全问题。既然L0范数难求,那么退而求其次,可以将目标函数中的L0范数改成在数学上容易进行优化的L1范数或L2范数。即模型的目标函数改为

\[\min \;Loss\left( {{\bf{\omega }},{\bf{x}}} \right) + \lambda {\left\| {\bf{\omega }} \right\|_1}\]

       或

\[\min \;Loss\left( {{\bf{\omega }},{\bf{x}}} \right) + \lambda {\left\| {\bf{\omega }} \right\|_2}\]

       因此深度学习中正则化项用的较多的是L1范数和L2范数。在权值更新的梯度下降算法中,L2范数比L1范数方便求导,所以下文先介绍L2范数的正则化。

3 范数如何正则 L2正则化和L1正则化

3.1 L2正则化

       范数进行正则化一般有两种形式:L2正则化和L1正则化。其中L2正则化比L1正则化更常见,L2正则化是在代价函数后面再加上一个L2范数正则化项,通常形式不是简单的

\[Loss\left( {{\bf{\omega }},{\bf{x}}} \right) + \lambda {\left\| {\bf{\omega }} \right\|_2}\]

       而是

\[\begin{array}{l} L{\rm{os}}{{\rm{s}}_2}\left( {{\bf{\omega }},{\bf{x}}} \right) = Los{s_0}\left( {{\bf{\omega }},{\bf{x}}} \right) + \frac{\lambda }{{2n}}\left\| {\bf{\omega }} \right\|_2^2 \\ \quad \quad \;\;\quad \quad \; = Los{s_0}\left( {{\bf{\omega }},{\bf{x}}} \right) + \frac{\lambda }{{2n}}{{\bf{\omega }}^T}{\bf{\omega }} \\ \end{array}\]

       Loss0代表原始的代价函数,后一项就是L2正则化项,||w||2表示参数w的L2范数,λ就是正则化项系数,n是训练集中样本个数,权衡正则化项与Loss0项的比重。另外还有一个系数1/2,1/2经常会看到,主要是为求导结果方便计算,后一项求导会产生一个2,与1/2相乘刚好凑整。L2正则化项是怎么避免overfitting的呢?我们推导一下看看,先求导:

\[ \frac{{\partial L{\rm{os}}{{\rm{s}}_2}\left( {{\bf{\omega }},{\bf{x}}} \right)}}{{\partial {\bf{\omega }}}} = \frac{{\partial L{\rm{os}}{{\rm{s}}_0}\left( {{\bf{\omega }},{\bf{x}}} \right)}}{{\partial {\bf{\omega }}}} + \frac{\lambda }{n}{\bf{\omega }} \]

       η为梯队下降中的学习率,W权重的更新表达式为:

\[\begin{array}{l} {\bf{\omega }} = {\bf{\omega }} - \eta \frac{{\partial L{\rm{os}}{{\rm{s}}_2}\left( {{\bf{\omega }},{\bf{x}}} \right)}}{{\partial {\bf{\omega }}}} \\ \quad = {\bf{\omega }} - \eta \left( {\frac{{\partial L{\rm{os}}{{\rm{s}}_0}\left( {{\bf{\omega }},{\bf{x}}} \right)}}{{\partial {\bf{\omega }}}} + \frac{\lambda }{n}{\bf{\omega }}} \right) \\ \quad = \left( {1 - \frac{{\eta \lambda }}{n}} \right){\bf{\omega }} - \eta \frac{{\partial L{\rm{os}}{{\rm{s}}_0}\left( {{\bf{\omega }},{\bf{x}}} \right)}}{{\partial {\bf{\omega }}}} \\ \end{array}\]

       在不使用L2正则化时,求导结果中w前系数为1,现在w前面系数为 1−ηλ/n ,因为η、λ、n都为正,所以 1−ηλ/n小于1,它的效果是减小w,这也就是权重衰减(weight decay)的由来。当然考虑到后面的导数项,w最终的值可能增大也可能减小。

       到目前为止,我们只是解释了L2正则化项存在可以让w“变小”的效果,但是还没解释为什么w“变小”可以防止过拟合?一个“显而易见”的解释就是:更小的权值w,从某种意义上说,表示网络的复杂度更低,对数据的拟合刚刚好(奥卡姆剃刀原理),而在实际应用中,也验证了这一点,L2正则化的效果往往好于未经正则化的效果。

       L2正则化能一定程度处理过拟合情况。过拟合的时候,拟合函数的系数往往非常大,过拟合是拟合函数需要顾忌每一个点,最终形成的拟合函数波动很大。在某些很小的区间里,函数值的变化很剧烈。这就意味着函数在某些小区间里的导数值(绝对值)非常大,由于自变量值可大可小,所以只有系数足够大,才能保证导数值很大。而正则化是通过约束参数的范数使其不要太大,所以可以在一定程度上减少过拟合情况。


图2 过拟合和L2正则化减少模型的过拟合


表2 欠拟合和L2正则化表现分析
情形 表现 训练集正确率 测试集正确率
过拟合 \(y = ax^{5} + bx^{4} + cx^{3} +dx^{2} + ex +f\)拟合有噪二次函数数据 非常好(图2中1行1列) 非常差(图2中2行1列)
L2正则化优化 \(y = ax^{5} + bx^{4} + cx^{3} +dx^{2} + ex +f\)加L2范数正则项拟合有噪二次函数数据 较好(图2中1行2列) 较好(图2中2行2列)

       如图2所示分别为过拟合情形和经L2正则优化的情形,虽然经过L2正则优化后的模型在训练集上准确率不及没有经过L2正则优化模型,但L2正则优化后的模型有两个优点:

       (1) L2正则优化后的模型表现出了二次函数特征,而不是过拟合情况下高次函数的特征
       (2) L2正则优化后的模型在测试集上的准确率比没有经过L2正则优化的模型好太多,

       以上两点都可以证明L2正则化对过拟合问题有本质上的改善。

3.2 L1正则化

       同L2正则化类似,在原始的损失函数后面加上一个L1正则化项,即所有权重w的绝对值的和,乘以λ/n

\[ L{\rm{os}}{{\rm{s}}_1}\left( {{\bf{\omega }},{\bf{x}}} \right) = Los{s_0}\left( {{\bf{\omega }},{\bf{x}}} \right) + \frac{\lambda }{n}{\left\| {\bf{\omega }} \right\|_1} \]

       先求导:

\[ \frac{{\partial L{\rm{os}}{{\rm{s}}_1}\left( {{\bf{\omega }},{\bf{x}}} \right)}}{{\partial {\bf{\omega }}}} = \frac{{\partial L{\rm{os}}{{\rm{s}}_0}\left( {{\bf{\omega }},{\bf{x}}} \right)}}{{\partial {\bf{\omega }}}} + \frac{\lambda }{n}{\mathop{\rm sgn}} \left( {\bf{\omega }} \right) \]

       上式中sgn(w)表示w的符号。那么权重w的更新规则为:

\[\begin{array}{l} {\bf{\omega }} = {\bf{\omega }} - \eta \frac{{\partial L{\rm{os}}{{\rm{s}}_1}\left( {{\bf{\omega }},{\bf{x}}} \right)}}{{\partial {\bf{\omega }}}} \\ \quad = {\bf{\omega }} - \eta \left( {\frac{{\partial L{\rm{os}}{{\rm{s}}_0}\left( {{\bf{\omega }},{\bf{x}}} \right)}}{{\partial {\bf{\omega }}}} + \frac{\lambda }{n}{\mathop{\rm sgn}} \left( {\bf{\omega }} \right)} \right) \\ \quad = {\bf{\omega }} - \frac{{\eta \lambda }}{n}{\mathop{\rm sgn}} \left( {\bf{\omega }} \right) - \eta \frac{{\partial L{\rm{os}}{{\rm{s}}_0}\left( {{\bf{\omega }},{\bf{x}}} \right)}}{{\partial {\bf{\omega }}}} \\ \end{array}\]

       比原始的更新规则多出了ηλ sgn(w)/n这一项。当w为正时,更新后的w变小。当w为负时,更新后的w变大。因此它的效果就是让w逐渐趋向于0,使模型中的权重尽可能为0,也就相当于减小了模型复杂度,防止过拟合。另外,上面没有提到一个问题,当w为0时怎么办?当w等于0时,|W|是不可导的,所以我们只能按照原始的未经正则化的方法去更新w,这就相当于去掉ηλsgn(w)/n这一项,所以我们可以规定sgn(0)=0,这样就把w=0的情况也统一进来了。


图3 过拟合和L1正则化减少模型的过拟合


表3 欠拟合和L1正则化表现分析
情形 表现 训练集正确率 测试集正确率
过拟合 \(y = ax^{5} + bx^{4} + cx^{3} +dx^{2} + ex +f\)拟合有噪二次函数数据 非常好(图2中1行1列) 非常差(图2中2行1列)
L1正则化优化 \(y = ax^{5} + bx^{4} + cx^{3} +dx^{2} + ex +f\)加L1范数正则项拟合有噪二次函数数据 较好(图2中1行2列) 较好(图2中2行2列)

       如图3所示分别为过拟合情形和经L1正则优化的情形,虽然经过L1正则优化后的模型在训练集上准确率不及没有经过L1正则优化模型,但L1正则优化后的模型有两个优点:
       (1) L1正则优化后的模型表现出了二次函数特征,而不是过拟合情况下高次函数的特征
       (2) L1正则优化后的模型在测试集上的准确率比没有经过L1正则优化的模型好太多,
       以上两点都可以证明L1正则化对过拟合问题有本质上的改善。

Guess you like

Origin www.cnblogs.com/Kalafinaian/p/11220761.html