支持向量机(SVM)算法原理及实例

版权声明:站在巨人的肩膀上学习。 https://blog.csdn.net/zgcr654321/article/details/85487611

支持向量机(SVM)算法介绍

支持向量机(support vector machine)是一种二分类算法,其基本模型定义为特征空间上间隔最大的线性分类器,即支持向量机的学习策略便是间隔最大化,最终转化为一个凸二次规划问题的求解。SVM可分类为三类:线性可分支持向量机(linear support vector machine in linearly separable case)、线性支持向量机(linearsupport vector machine)及非线性支持向量机(non-linearsupport vector machine)。

当训练数据线性可分时,通过硬间隔最大化(hard margin maximization),学习一个线性的分类器,即线性可分支持向量机,又称为硬间隔支持向量机;当训练数据近似线性可分时,通过软间隔最大化(soft margin maximization),也学习一个线性的分类器,即线性支持向量机,又称为软间隔支持向量机;当训练数据线性不可分时,通过使用核技巧 (kernel trick)及软间隔最大化,学习非线性支持向量机。

线性可分支持向量机原理

线性可分支持向量机的定义

给定一个线性可分的训练数据集,通过间隔最大化或等价地求解相应的凸二次规划问题学习得到的分离超平面为

w x + b = 0 w ^ { * } \cdot x + b ^ { * } = 0

以及相应的分类决策函数

f ( x ) = sign ( w x + b ) f ( x ) = \operatorname { sign } \left( w ^ { * } \cdot x + b ^ { * } \right)

就称为线性可分支持向量机。

那么,如何求解得到间隔最大化的超平面呢?

函数间隔、几何间隔与硬间隔最大化

函数间隔:

对于给定的训练数据集T和超平面(w,b),定义超平面(w,b)关于样本点 ( x i , y i ) \left( x _ { i } , y _ { i } \right) 的函数间隔为:

γ ^ i = y i ( w x i + b ) \hat { \gamma } _ { i } = y _ { i } \left( w \cdot x _ { i } + b \right)

定义超平面(w,b)关于训练数据集T的函数间隔为超平面(w,b)关于T中所有样本点 ( x i , y i ) \left( x _ { i } , y _ { i } \right) 的函数间隔值之中的最小值, 即

γ ^ = min i = 1 ,   , N γ ^ i \hat { \gamma } = \min _ { i = 1 , \cdots , N } \hat { \gamma } _ { i }

函数间隔可以表示分类预测的正确性及确信度。但是选择分离超平面时, 只有函数间隔还不够,因为只要成比例地改变w和b, 例如将它们改为2w和2b, 超平面并没有改变, 但函数间隔却成为原来的2倍。

因此,我们可以对分离超平面的法向量w加某些约束, 如规范化, w = 1 \| w \| = 1 , 使得间隔是确定的。这时函数间隔成为几何间隔。注意 w \| w \| 的意思是w的二范数。

几何间隔:

对于给定的训练数据集T和超平面(w,b),定义超平 面(w,b)关于样本点样本点 ( x i , y i ) \left( x _ { i } , y _ { i } \right) 的几何间隔为:

γ i = y i ( w w x i + b w ) \gamma _ { i } = y _ { i } \left( \frac { w } { \| w \| } \cdot x _ { i } + \frac { b } { \| w \| } \right)

定义超平面(w,b)关于训练数据集T的几何间隔为超平面(w,b)关于T中所有样本点 ( x i , y i ) \left( x _ { i } , y _ { i } \right) 的几何间隔值之中的最小值,即

γ = min i = 1 ,   , N γ i \gamma = \min _ { i = 1 , \cdots , N } \gamma _ { i }

超平面(w,b)关于样本点 ( x i , y i ) \left( x _ { i } , y _ { i } \right) 的几何间隔一般是实例点到超平面的带符号的距离(signed distance),当样本点被超平面正确分类时就是实例点到超平面的距离。

函数间隔和几何间隔有如下关系:

γ i = γ ^ i w γ = γ ^ w \begin{aligned} \gamma _ { i } & = \frac { \hat { \gamma } _ { i } } { \| w \| } \\ \gamma & = \frac { \hat { \gamma } } { \| w \| } \end{aligned}

如果 w = 1 \| \mathrm { w } \| = 1 ,那么函数间隔和几何间隔相等。如果超平面参数w和b成比例地改变(超平面没有改变),函数间隔也按此比例改变,而几何间隔不变。

硬间隔最大化:

我们寻找的超平面应当满足:这个超平面不仅可以将正负实例点分开,而且对最难分的实例点(离超平面最近的点)也有足够大的确信度将它们分开。这样的超平面应该对未知的新实例有很好的分类预测能力。

最大间隔分离超平面问题可以表示为下面的约束最优化问题:

max w , b γ \max _ { w , b } \gamma

s.t. y i ( w w x i + b w ) γ , i = 1 , 2 ,   , N \quad y _ { i } \left( \frac { w } { \| w \| } \cdot x _ { i } + \frac { b } { \| w \| } \right) \geqslant \gamma , \quad i = 1,2 , \cdots , N

即我们希望最大化超平面(w,b)关于训练数据集的几何间隔 γ \gamma 。约束条件表示的是超平面(w,b)关于每个训练样本点的几何间隔至少是 γ \gamma

又由于几何间隔和函数间隔的关系为: γ = γ ^ w \gamma = \frac { \hat { \gamma } } { \| w \| }

上面的最优化问题可以表示为:

max w , b γ ^ w \max _ { w , b } \frac { \hat { \gamma } } { \| w \| }

s.t. y i ( w x i + b ) γ ^ , i = 1 , 2 ,   , N \quad y _ { i } \left( w \cdot x _ { i } + b \right) \geqslant \hat { \gamma } , \quad i = 1,2 , \cdots , N

γ ^ \hat { \gamma } 取值并不影响最优化问题的解。假设将w和b按比例改变为λw和λb,这时函数间隔成为 λ γ ^ \lambda \hat { \gamma } 。函数间隔的这一改变对上面最优化问题的不等式约束没有影响,对目标函数的优化也没有影响,也就是说,它产生一个等价的最优化问题。

因此,我们不妨取 γ ^ = 1 \hat { \gamma } = 1 ,则上面的最优化问题变为:

min w , b 1 2 w 2 \min _ { w , b } \frac { 1 } { 2 } \| w \| ^ { 2 }

s.t. y i ( w x i + b ) 1 0 , i = 1 , 2 ,   , N \quad y _ { i } \left( w \cdot x _ { i } + b \right) - 1 \geqslant 0 , \quad i = 1,2 , \cdots , N

注意:最大化 1 w \frac { 1 } { \| w \| } 和最小化 1 2 w 2 \frac { 1 } { 2 } \| w \| ^ { 2 } 是等价的。这是一个凸二次规划(convex quadratic programming)问题。

如果我们能够求出上面的约束最优化问题的解 w , b w ^ { * } , b ^ { * } ,那么就可以得到最大间隔分离超平面 w x + b = 0 w ^ { * } \cdot x + b ^ { * } = 0 及分类决策函数 f ( x ) = sign ( w x + b ) f ( x ) = \operatorname { sign } \left( w ^ { * } \cdot x + b ^ { * } \right) ,这就是我们要找的线性可分支持向量机模型。

线性可分支持向量机学习算法

输入线性可分的训练数据集 T = { ( x 1 , y 1 ) , ( x 2 , y 2 ) ,   , ( x N , y N ) } T = \left\{ \left( x _ { 1 } , y _ { 1 } \right) , \left( x _ { 2 } , y _ { 2 } \right) , \cdots , \left( x _ { N } , y _ { N } \right) \right\} ,其中, x i x _ { i } \in X = R n \mathcal { X } = \mathbf { R } ^ { n } y i Y = { 1 , + 1 } , i = 1 , 2 ,   , N y _ { i } \in \mathcal { Y } = \{ - 1 , + 1 \} , \quad i = 1,2 , \cdots , N

构造并求解约束最优化问题:

min w , b 1 2 w 2 \min _ { w , b } \frac { 1 } { 2 } \| w \| ^ { 2 }

s.t. y i ( w x i + b ) 1 0 , i = 1 , 2 ,   , N \quad y _ { i } \left( w \cdot x _ { i } + b \right) - 1 \geqslant 0 , \quad i = 1,2 , \cdots , N

求得最优解 w , b w ^ { * } , b ^ { * } ,以此得到超平面和分类决策函数:

w x + b = 0 w ^ { * } \cdot x + b ^ { * } = 0

f ( x ) = sign ( w x + b ) f ( x ) = \operatorname { sign } \left( w ^ { * } \cdot x + b ^ { * } \right)

这个超平面和分类决策函数就是我们要求的线性可分支持向量机模型。

要证明最大间隔分离超平面存在且唯一具体可以看《统计学习方法》P100。存在性的证明是因为数据集已知线性可分,所以必存在这样的超平面;唯一性是用反证法来证明,先假设有两个不同的最优解,但最后推出两个最优解是相同的,故可以证明超平面唯一。

支持向量与间隔边界

支持向量:

在线性可分情况下,训练数据集的样本点中与分离超平面距离最近的样本点的实例称为支持向量(support vector)。支持向量是使约束条件式s.t. y i ( w x i + b ) 1 0 , i = 1 , 2 ,   , N \quad y _ { i } \left( w \cdot x _ { i } + b \right) - 1 \geqslant 0 , \quad i = 1,2 , \cdots , N 等号成立的点,即 y i ( w x i + b ) 1 = 0 y _ { i } \left( w \cdot x _ { i } + b \right) - 1 = 0

下面给出支持向量的定义:

考虑原始最优化问题

min w , b 1 2 w 2  s.t.  y i ( w x i + b ) 1 0 , i = 1 , 2 ,   , N \begin{array} { l l } { \min _ { w , b } } & { \frac { 1 } { 2 } \| w \| ^ { 2 } } \\ { \text { s.t. } } & { y _ { i } \left( w \cdot x _ { i } + b \right) - 1 \geqslant 0 , \quad i = 1,2 , \cdots , N } \end{array}

及对偶最优化问题

min a 1 2 i = 1 N j = 1 N α i α j y i y j ( x i x j ) i = 1 N α i  s.t.  i = 1 N α i y i = 0 α i 0 , i = 1 , 2 ,   , N \begin{array} { c l } { \min _ { a } } & { \frac { 1 } { 2 } \sum _ { i = 1 } ^ { N } \sum _ { j = 1 } ^ { N } \alpha _ { i } \alpha _ { j } y _ { i } y _ { j } \left( x _ { i } \cdot x _ { j } \right) - \sum _ { i = 1 } ^ { N } \alpha _ { i } } \\ { \text { s.t. } } & { \sum _ { i = 1 } ^ { N } \alpha _ { i } y _ { i } = 0 } \\ { \alpha _ { i } \geqslant 0 , } & { i = 1,2 , \cdots , N } \end{array}

将训练数据集中对应于 α i > 0 \alpha _ { i } ^ { * } > 0 的样本点 ( x i , y i ) \left( x _ { i } , y _ { i } \right) 的实例 x i R n x _ { i } \in \mathbf { R } ^ { n } 称为支持向量。

y i = + 1 y _ { i } = + 1 的正例点,支持向量在超平面 H 1 : w x + b = 1 H _ { 1 } : w \cdot x + b = 1 上;对 y i = 1 y _ { i } = - 1 的负例点,支持向量在超平面 H 2 : w x + b = 1 H _ { 2 } : w \cdot x + b = - 1 上。

H1和H2是平行的,没有实例点落在它们中间。

在这里插入图片描述

间隔边界:

在H1和H2之间形成一条长带,分离超平面与它们平行且位于它们中央。长带的宽度,即H1和H2之间的距离称为间隔(margin)。

间隔依赖于分离超平面的法向量w,等于 2 w \frac { 2 } { \| w \| } 。H1和H2称为间隔边界。

在决定分离超平面时只有支持向量起作用,而其他实例点并不起作用。如果移动支持向量将改变所求的解;但是如果在间隔边界以外移动其他实例点,甚至去掉这些点,则解是不会改变的。由于支持向量在确定分离超平面中起着决定性作用,所以将这种分类模型称为支持向量机。支持向量的个数一般很少,所以支持向量机由很少的“重要的”训练样本确定。

线性可分支持向量机学习算法的对偶算法及其求解方法

上面的最优化问题:

min w , b 1 2 w 2 \min _ { w , b } \frac { 1 } { 2 } \| w \| ^ { 2 }

s.t. y i ( w x i + b ) 1 0 , i = 1 , 2 ,   , N \quad y _ { i } \left( w \cdot x _ { i } + b \right) - 1 \geqslant 0 , \quad i = 1,2 , \cdots , N

在实际计算中并不好求解。

我们采取另一种解决方法:将它作为原始最优化问题,应用拉格朗日对偶性(其实就是拉格朗日乘数法),通过求解对偶问题(dual problem)得到原始问题(primal problem)的最优解,这就是线性可分支持向量机的对偶算法(dual algorithm)。

线性可分支持向量机学习算法的对偶算法的求解过程,其实就是拉格朗日乘数法构造函数并求解的过程:

首先由原始的最优化问题构造拉格朗日函数,对每一个不等式约束式(就是s.t开头的等式)引进拉格朗日乘子(Lagrauge multiplier) α i 0 , i = 1 , 2 ,   , N \alpha _ { i } \geqslant 0 , i = 1,2 , \cdots , N ,定义拉格朗日函数:

L ( w , b , α ) = 1 2 w 2 i = 1 N α i y i ( w x i + b ) + i = 1 N α i L ( w , b , \alpha ) = \frac { 1 } { 2 } \| w \| ^ { 2 } - \sum _ { i = 1 } ^ { N } \alpha _ { i } y _ { i } \left( w \cdot x _ { i } + b \right) + \sum _ { i = 1 } ^ { N } \alpha _ { i }

其中 α = ( α 1 , α 2 ,   , α N ) T \alpha = \left( \alpha _ { 1 } , \alpha _ { 2 } , \cdots , \alpha _ { N } \right) ^ { \mathrm { T } } 为拉格朗日乘子向量。

原始问题的对偶问题是极大极小问题:

max α min w , b L ( w , b , α ) \max _ { \alpha } \min _ { w , b } L ( w , b , \alpha )

即先求 L ( w , b , α ) L ( w , b , \alpha ) w , b w , b 的极小,再求对 α \alpha 的极大。

首先求 min w , b L ( w , b , α ) \min _ { w , b } L ( w , b , \alpha )

将函数 L ( w , b , α ) L ( w , b , \alpha ) 分别对 w , b w , b 的偏导数并均令其等于0。

w L ( w , b , α ) = w i = 1 N α i y i x i = 0 \nabla _ { w } L ( w , b , \alpha ) = w - \sum _ { i = 1 } ^ { N } \alpha _ { i } y _ { i } x _ { i } = 0

b L ( w , b , α ) = i = 1 N α i y i = 0 \nabla _ { b } L ( w , b , \alpha ) = \sum _ { i = 1 } ^ { N } \alpha _ { i } y _ { i } = 0

然后我们可得:

w = i = 1 N α i y i x i w = \sum _ { i = 1 } ^ { N } \alpha _ { i } y _ { i } x _ { i }

i = 1 N α i y i = 0 \sum _ { i = 1 } ^ { N } \alpha _ { i } y _ { i } = 0

将上面两式代入函数 L ( w , b , α ) L ( w , b , \alpha ) ,得:

L ( w , b , α ) = 1 2 i = 1 N j = 1 N α i α j y i y j ( x i x j ) i = 1 N α i y i ( ( j = 1 N α j y j x j ) x i + b ) + i = 1 N α i = 1 2 i = 1 N j = 1 N α i α j y i y j ( x i x j ) + i = 1 N α i \begin{aligned} L ( w , b , \alpha ) & = \frac { 1 } { 2 } \sum _ { i = 1 } ^ { N } \sum _ { j = 1 } ^ { N } \alpha _ { i } \alpha _ { j } y _ { i } y _ { j } \left( x _ { i } \cdot x _ { j } \right) - \sum _ { i = 1 } ^ { N } \alpha _ { i } y _ { i } \left( \left( \sum _ { j = 1 } ^ { N } \alpha _ { j } y _ { j } x _ { j } \right) \cdot x _ { i } + b \right) + \sum _ { i = 1 } ^ { N } \alpha _ { i } \\ & = - \frac { 1 } { 2 } \sum _ { i = 1 } ^ { N } \sum _ { j = 1 } ^ { N } \alpha _ { i } \alpha _ { j } y _ { i } y _ { j } \left( x _ { i } \cdot x _ { j } \right) + \sum _ { i = 1 } ^ { N } \alpha _ { i } \end{aligned}

故有

min w , b L ( w , b , α ) = 1 2 i = 1 N j = 1 N α i α j y i y j ( x i x j ) + i = 1 N α i \min _ { w , b } L ( w , b , \alpha ) = - \frac { 1 } { 2 } \sum _ { i = 1 } ^ { N } \sum _ { j = 1 } ^ { N } \alpha _ { i } \alpha _ { j } y _ { i } y _ { j } \left( x _ { i } \cdot x _ { j } \right) + \sum _ { i = 1 } ^ { N } \alpha _ { i }

然后求 min w , b L ( w , b , α ) \min _ { w , b } L ( w , b , \alpha ) α \alpha 的极大:

max α 1 2 i = 1 N j = 1 N α i α j y i y j ( x i x j ) + i = 1 N α i \max _ { \alpha } - \frac { 1 } { 2 } \sum _ { i = 1 } ^ { N } \sum _ { j = 1 } ^ { N } \alpha _ { i } \alpha _ { j } y _ { i } y _ { j } \left( x _ { i } \cdot x _ { j } \right) + \sum _ { i = 1 } ^ { N } \alpha _ { i }

 s.t.  i = 1 N α i y i = 0 α i 0 , i = 1 , 2 ,   , N \begin{array} { l l } { \text { s.t. } } & { \sum _ { i = 1 } ^ { N } \alpha _ { i } y _ { i } = 0 } \\ { } & { \alpha _ { i } \geqslant 0 , \quad i = 1,2 , \cdots , N } \end{array}

将上式由求极大再转换成求极小,得到等价的对偶最优化问题:

min α 1 2 i = 1 N j = 1 N α i α j y i y j ( x i x j ) i = 1 N α i \min _ { \alpha } \frac { 1 } { 2 } \sum _ { i = 1 } ^ { N } \sum _ { j = 1 } ^ { N } \alpha _ { i } \alpha _ { j } y _ { i } y _ { j } \left( x _ { i } \cdot x _ { j } \right) - \sum _ { i = 1 } ^ { N } \alpha _ { i }

s.t. i = 1 N α i y i = 0 \sum _ { i = 1 } ^ { N } \alpha _ { i } y _ { i } = 0
α i 0 , i = 1 , 2 ,   , N \alpha _ { i } \geqslant 0 , \quad i = 1,2 , \cdots , N

这里其实只是第一个式子的所有项的符号变换了,这样就从极大问题变成了极小问题。

求解最优化问题的最优解 w , b w ^ { * } , b ^ { * }

w = i = 1 N α i y i x i w ^ { * } = \sum _ { i = 1 } ^ { N } \alpha _ { i } ^ { * } y _ { i } x _ { i }

b = y j i = 1 N α i y i ( x i x j ) b ^ { * } = y _ { j } - \sum _ { i = 1 } ^ { N } \alpha _ { i } ^ { * } y _ { i } \left( x _ { i } \cdot x _ { j } \right)

因此超平面和决策函数可以写成:

i = 1 N α i y i ( x x i ) + b = 0 \sum _ { i = 1 } ^ { N } \alpha _ { i } ^ { * } y _ { i } \left( x \cdot x _ { i } \right) + b ^ { * } = 0

f ( x ) = sign ( i = 1 N α i y i ( x x i ) + b ) f ( x ) = \operatorname { sign } \left( \sum _ { i = 1 } ^ { N } \alpha _ { i } ^ { * } y _ { i } \left( x \cdot x _ { i } \right) + b ^ { * } \right)

f ( x ) = sign ( i = 1 N α i y i ( x x i ) + b ) f ( x ) = \operatorname { sign } \left( \sum _ { i = 1 } ^ { N } \alpha _ { i } ^ { * } y _ { i } \left( x \cdot x _ { i } \right) + b ^ { * } \right) 称为线性可分支持向量机的对偶形式。分类决策函数只依赖于输入x和训练样本输入的内积。

线性支持向量机原理

线性支持向量机定义

线性可分支持向量机学习算法对线性不可分训练数据是不适用的。假如我们现在有一个线性不可分的数据集,但是这个数据集中除了少量的特异点之外,剩下的大部分样本点组成的集合是线性可分的,这个时候我们就可以用线性支持向量机学习算法来对其进行分类。

软间隔最大化

为了能够对上面介绍的这种数据集(大部分数据点组成的集合线性可分,只有少量的特异点)进行分类,我们需要修改线性可分支持向量机中的最优化问题的约束等式:

s.t. y i ( w x i + b ) 1 0 , i = 1 , 2 ,   , N \quad y _ { i } \left( w \cdot x _ { i } + b \right) - 1 \geqslant 0 , \quad i = 1,2 , \cdots , N

我们可以对每个样本点 ( x i , y i ) \left( x _ { i } , y _ { i } \right) 引进一个松弛变量 ξ i 0 \xi _ { i } \geqslant 0 ,使函数间隔加上松弛变量大于等于1。于是约束条件变为:

y i ( w x i + b ) 1 ξ i y _ { i } \left( w \cdot x _ { i } + b \right) \geqslant 1 - \xi _ { i }

对每个松弛变量 ξ i \xi _ { i } 支付一个代价 ξ i \xi _ { i } ,目标函数由原来的 1 2 w 2 \frac { 1 } { 2 } \| w \| ^ { 2 } 变成:

1 2 w 2 + C j = 1 N ξ i \frac { 1 } { 2 } \| w \| ^ { 2 } + C \sum _ { j = 1 } ^ { N } \xi _ { i }

C>0称为惩罚参数,一般由应用问题决定,C值大时对误分类的惩罚增大,C值小时对误分类的惩罚减小。

上面的目标函数有两层含义:使 1 2 w 2 \frac { 1 } { 2 } \| w \| ^ { 2 } 尽量小即间隔尽量大,同时使误分类点的个数尽量小,C是调和两者的系数。相对于线性可分支持向量机的硬间隔最大化,这被称为软间隔最大化。

那么这时我们的原始问题就变为:

min w , b , ξ 1 2 w 2 + C i = 1 N ξ i \min _ { w , b , \xi } \frac { 1 } { 2 } \| w \| ^ { 2 } + C \sum _ { i = 1 } ^ { N } \xi _ { i }

 s.t.  y i ( w x i + b ) 1 ξ i , i = 1 , 2 ,   , N ξ i 0 , i = 1 , 2 ,   , N \begin{array} { l l } { \text { s.t. } } & { y _ { i } \left( w \cdot x _ { i } + b \right) \geqslant 1 - \xi _ { i } , \quad i = 1,2 , \cdots , N } \\ { } & { \xi _ { i } \geqslant 0 , \quad i = 1,2 , \cdots , N } \end{array}

求得的分离超平面和分类决策函数为:

w x + b = 0 w ^ { * } \cdot x + b ^ { * } = 0

f ( x ) = sign ( w x + b ) f ( x ) = \operatorname { sign } \left( w ^ { * } \cdot x + b ^ { * } \right)

这就是线性支持向量机模型。类似地,这个问题的求解并不容易,我们也需要找出这个问题的对偶形式然后对对偶问题求解。

线性支持向量机学习算法的对偶形式及求解方法

上面的原始问题的对偶问题为:

min α 1 2 i = 1 N j = 1 N α i α j y i y j ( x i x j ) i = 1 N α i \min _ { \alpha } \frac { 1 } { 2 } \sum _ { i = 1 } ^ { N } \sum _ { j = 1 } ^ { N } \alpha _ { i } \alpha _ { j } y _ { i } y _ { j } \left( x _ { i } \cdot x _ { j } \right) - \sum _ { i = 1 } ^ { N } \alpha _ { i }

 s.t.  i = 1 N α i y i = 0 0 α i C , i = 1 , 2 ,   , N \begin{array} { l l } { \text { s.t. } } & { \sum _ { i = 1 } ^ { N } \alpha _ { i } y _ { i } = 0 } \\ { } & { 0 \leqslant \alpha _ { i } \leqslant C , \quad i = 1,2 , \cdots , N } \end{array}

对这个对偶问题构造拉格朗日函数:

L ( w , b , ξ , α , μ ) 1 2 w 2 + C i = 1 N ξ i i = 1 N α i ( y i ( w x i + b ) 1 + ξ i ) i = 1 N μ i ξ i L ( w , b , \xi , \alpha , \mu ) \equiv \frac { 1 } { 2 } \| w \| ^ { 2 } + C \sum _ { i = 1 } ^ { N } \xi _ { i } - \sum _ { i = 1 } ^ { N } \alpha _ { i } \left( y _ { i } \left( w \cdot x _ { i } + b \right) - 1 + \xi _ { i } \right) - \sum _ { i = 1 } ^ { N } \mu _ { i } \xi _ { i }

其中 α i 0 , μ i 0 \alpha _ { i } \geqslant 0 , \mu _ { i } \geqslant 0

类似地,我们先求 L ( w , b , ξ , α , μ ) L ( w , b , \xi , \alpha , \mu ) w , b , ξ w , b , \xi 的极小。

w L ( w , b , ξ , α , μ ) = w i = 1 N α i y i x i = 0 \nabla _ { w } L ( w , b , \xi , \alpha , \mu ) = w - \sum _ { i = 1 } ^ { N } \alpha _ { i } y _ { i } x _ { i } = 0

b L ( w , b , ξ , α , μ ) = i = 1 N α i y i = 0 \nabla _ { b } L ( w , b , \xi , \alpha , \mu ) = - \sum _ { i = 1 } ^ { N } \alpha _ { i } y _ { i } = 0

ξ i L ( w , b , ξ , α , μ ) = C α i μ i = 0 \nabla _ { \xi _ { i } } L ( w , b , \xi , \alpha , \mu ) = C - \alpha _ { i } - \mu _ { i } = 0

可得:

w = i = 1 N α i y i x i w = \sum _ { i = 1 } ^ { N } \alpha _ { i } y _ { i } x _ { i }

i = 1 N α i y i = 0 \sum _ { i = 1 } ^ { N } \alpha _ { i } y _ { i } = 0

C α i μ i = 0 C - \alpha _ { i } - \mu _ { i } = 0

将上面三个式子代入拉格朗日函数:

min w , b , ξ L ( w , b , ξ , α , μ ) = 1 2 i = 1 N j = 1 N α i α j y i y j ( x i x j ) + i = 1 N α i \min _ { w , b , \xi } L ( w , b , \xi , \alpha , \mu ) = - \frac { 1 } { 2 } \sum _ { i = 1 } ^ { N } \sum _ { j = 1 } ^ { N } \alpha _ { i } \alpha _ { j } y _ { i } y _ { j } \left( x _ { i } \cdot x _ { j } \right) + \sum _ { i = 1 } ^ { N } \alpha _ { i }

再对 min w , b , ξ L ( w , b , ξ , α , μ ) \min _ { w , b , \xi } L ( w , b , \xi , \alpha , \mu ) α \alpha 的极大,即得对偶问题:

max α 1 2 i = 1 N j = 1 N α i α j y i y j ( x i x j ) + i = 1 N α i \max _ { \alpha } - \frac { 1 } { 2 } \sum _ { i = 1 } ^ { N } \sum _ { j = 1 } ^ { N } \alpha _ { i } \alpha _ { j } y _ { i } y _ { j } \left( x _ { i } \cdot x _ { j } \right) + \sum _ { i = 1 } ^ { N } \alpha _ { i }

 s.t.  i = 1 N α i y i = 0 C α i μ i = 0 α i 0 μ i 0 , i = 1 , 2 ,   , N \begin{array} { l l } { \text { s.t. } } & { \sum _ { i = 1 } ^ { N } \alpha _ { i } y _ { i } = 0 } \\ { } & { C - \alpha _ { i } - \mu _ { i } = 0 } \\ { } & { \alpha _ { i } \geqslant 0 } \\ { \mu _ { i } \geqslant 0 , } & { i = 1,2 , \cdots , N } \end{array}

利用等式 C α i μ i = 0 C - \alpha _ { i } - \mu _ { i } = 0 消去 μ i \mu _ { i } ,从而只留下变量 α i \alpha _ { i } ,并将约束

C α i μ i = 0 C - \alpha _ { i } - \mu _ { i } = 0
α t 0 \alpha _ { t } \geqslant 0
μ i 0 , i = 1 , 2 ,   , N \mu _ { i } \geqslant 0 , \quad i = 1,2 , \cdots , N

写成0 α i C \leqslant \alpha _ { i } \leqslant C

再将对目标函数求极大转换为求极小,于是得到对偶问题

min a 1 2 i = 1 N j = 1 N α i α j y i y j ( x i x j ) i = 1 N α i  s.t.  i = 1 N α i y i = 0 0 α i C , i = 1 , 2 ,   , N \begin{array} { c l } { \min _ { a } } & { \frac { 1 } { 2 } \sum _ { i = 1 } ^ { N } \sum _ { j = 1 } ^ { N } \alpha _ { i } \alpha _ { j } y _ { i } y _ { j } \left( x _ { i } \cdot x _ { j } \right) - \sum _ { i = 1 } ^ { N } \alpha _ { i } } \\ { \text { s.t. } } & { \sum _ { i = 1 } ^ { N } \alpha _ { i } y _ { i } = 0 } \\ { } & { 0 \leqslant \alpha _ { i } \leqslant C , \quad i = 1,2 , \cdots , N } \end{array}

定理:设 α = ( α 1 , α 2 ,   , α N ) T \alpha ^ { * } = \left( \alpha _ { 1 } ^ { * } , \alpha _ { 2 } ^ { * } , \cdots , \alpha _ { N } ^ { * } \right) ^ { \mathrm { T } } 是对偶问题

min α 1 2 i = 1 N j = 1 N α i α j y i y j ( x i x j ) i = 1 N α i  s.t.  i = 1 N α i y i = 0 0 α i C , i = 1 , 2 ,   , N \begin{array} { c l } { \min _ { \alpha } } & { \frac { 1 } { 2 } \sum _ { i = 1 } ^ { N } \sum _ { j = 1 } ^ { N } \alpha _ { i } \alpha _ { j } y _ { i } y _ { j } \left( x _ { i } \cdot x _ { j } \right) - \sum _ { i = 1 } ^ { N } \alpha _ { i } } \\ { \text { s.t. } } & { \sum _ { i = 1 } ^ { N } \alpha _ { i } y _ { i } = 0 } \\ { } & { 0 \leqslant \alpha _ { i } \leqslant C , \quad i = 1,2 , \cdots , N } \end{array}

的一个解,若存在 α \alpha ^ { * } 的一个分量 α j , 0 < α j < C \alpha _ { j } ^ { * } , 0 < \alpha _ { j } ^ { * } < C ,则原始问题

min x , b , ξ 1 2 w 2 + C i = 1 N ξ i  s.t.  y i ( w x i + b ) 1 ξ i , i = 1 , 2 ,   , N ξ i 0 , i = 1 , 2 ,   , N \begin{array} { c l } { \min _ { x , b , \xi } } & { \frac { 1 } { 2 } \| w \| ^ { 2 } + C \sum _ { i = 1 } ^ { N } \xi _ { i } } \\ { \text { s.t. } } & { y _ { i } \left( w \cdot x _ { i } + b \right) \geqslant 1 - \xi _ { i } , \quad i = 1,2 , \cdots , N } \\ { } & { \xi _ { i } \geqslant 0 , \quad i = 1,2 , \cdots , N } \end{array}

的解 w , b w ^ { * } , b ^ { * } 可按下式求得:

w = i = 1 N α i y i x i w ^ { * } = \sum _ { i = 1 } ^ { N } \alpha _ { i } ^ { * } y _ { i } x _ { i }

b = y j i = 1 N y i α i ( x i x j ) b ^ { * } = y _ { j } - \sum _ { i = 1 } ^ { N } y _ { i } \alpha _ { i } ^ { * } \left( x _ { i } \cdot x _ { j } \right)

我们就可以得到分离超平面和决策函数:

i = 1 N α i y i ( x x i ) + b = 0 \sum _ { i = 1 } ^ { N } \alpha _ { i } ^ { * } y _ { i } \left( x \cdot x _ { i } \right) + b ^ { * } = 0

f ( x ) = sign ( i = 1 N α i y i ( x x i ) + b ) f ( x ) = \operatorname { sign } \left( \sum _ { i = 1 } ^ { N } \alpha _ { i } ^ { * } y _ { i } \left( x \cdot x _ { i } \right) + b ^ { * } \right)

软间隔的支持向量

在线性不可分时,将上面对偶问题的的解 α = ( α 1 , α 2 ,   , α N ) T \alpha ^ { * } = \left( \alpha _ { 1 } ^ { * } , \alpha _ { 2 } ^ { * } , \cdots , \alpha _ { N } ^ { * } \right) ^ { \mathrm { T } } 中对应 α i > 0 \alpha _ { i } ^ { * } > 0 的样本点 ( x i , y i ) \left( x _ { i } , y _ { i } \right) 的实例 x i x _ { i } 称为支持向量。

如下图:

在这里插入图片描述

图中,分离超平面由实线表示,间隔边界由虚线表示,正例点由“。”表示,负例点由“X”表示。图中还标出了实例 x i x _ { i } 到间隔边界的距离 ξ i w \frac { \xi _ { i } } { \| w \| }

α i < C \alpha _ { i } ^ { * } < C ,则 ξ i = 0 \xi _ { i } = 0 ,支持向量 x i x _ { i } 恰好落在间隔边界上;若 α i = C , 0 < ξ i < 1 \alpha _ { i } ^ { * } = C , 0 < \xi _ { i } < 1 ,则分类正确, x i x _ { i } 在间隔边界与分离超平面之间;若 α i = C , ξ i = 1 \alpha _ { i } ^ { * } = C , \quad \xi _ { i } = 1 ,则 x i x _ { i } 在分离超平面上;若 α i = C , ξ i > 1 \alpha _ { i } ^ { * } = C , \xi _ { i } > 1 ,则 x i x _ { i } 位于分离超平面误分一侧。

对于线性支持向量机,还有另一种最小化合页损失函数的理论可以解释。即当样本正确分类且函数间隔 y i ( w x i + b ) > 1 y _ { i } \left( w \cdot x _ { i } + b \right)>1 时损失为0,否则损失为 1 y i ( w x i + b ) 1 - y _ { i } \left( w \cdot x _ { i } + b \right) 。我们的目标就是使得损失值达到最小。具体推导过程可查看《统计学习方法》P113页。

非线性支持向量机原理

有时候我们的数据集中的数据完全线性不可分,但是如果我们把数据点都映射到高维空间(称为特征空间)后很可能就线性可分了。但映射到高维后,在高维空间上求解一个带约束的优化问题的计算量要大得多,即所谓的“维数灾难”。因此我们引入核函数来进行从低维到高维的转换。

非线性分类问题、核函数与核技巧

非线性分类问题与非线性分类问题的求解:

非线性分类问题是指通过利用非线性模型才能很好地进行分类的问题。

一般来说,对给定的一个训练数据集 T = { ( x 1 , y 1 ) , ( x 2 , y 2 ) ,   , ( x N , y N ) } T = \left\{ \left( x _ { 1 } , y _ { 1 } \right) , \left( x _ { 2 } , y _ { 2 } \right) , \cdots , \left( x _ { N } , y _ { N } \right) \right\} x i X = R n x _ { i } \in \mathcal { X } = \mathbf { R } ^ { n } ,对应的标记有两类 y i Y = { 1 , + 1 } , i = 1 , 2 ,   , N y _ { i } \in \mathcal { Y } = \{ - 1 , + 1 \} , \quad i = 1,2 , \cdots , N 。如果能用 R n \mathbf { R } ^ { n } 中的一个超曲面将正负例正确分开,则称这个问题为非线性可分问题。

如:

在这里插入图片描述

对于上图,将左图中的椭圆变换成右图中的直线:

设原空间为 X R 2 , x = ( x ( 1 ) , x ( 2 ) ) T X \mathcal { X } \subset \mathbf { R } ^ { 2 } , x = \left( x ^ { ( 1 ) } , x ^ { ( 2 ) } \right) ^ { \mathrm { T } } \in \mathcal { X } ,新空间为 Z R 2 , z = ( z ( 1 ) , z ( 2 ) ) T Z \mathcal { Z } \subset \mathbf { R } ^ { 2 } , z = \left( z ^ { ( 1 ) } , z ^ { ( 2 ) } \right) ^ { T } \in \mathcal { Z } ,定义从原空间到新空间的变换(映射):

经过变换之后,原空间的点变为相应的新空间中的点,原空间的椭圆

w 1 ( x ( 1 ) ) 2 + w 2 ( x ( 2 ) ) 2 + b = 0 w _ { 1 } \left( x ^ { ( 1 ) } \right) ^ { 2 } + w _ { 2 } \left( x ^ { ( 2 ) } \right) ^ { 2 } + b = 0

变换为新空间中的直线

w 1 z ( 1 ) + w 2 z ( 2 ) + b = 0 w _ { 1 } z ^ { ( 1 ) } + w _ { 2 } z ^ { ( 2 ) } + b = 0

这个直线可以在新空间中将变换后的正负样例点正确分开。

因此,用线性分类方法求解非线性分类问题分为两步:首先使用一个变换将原空间的数据映射到新空间;然后在新空间里用线性分类学习方法从训练数据中学习分类模型。

核函数:

X \mathcal { X } 是输入空间(欧氏空间 R n \mathbf { R } ^ { n } 的子集或离散集合),又设 H \mathcal { H } 为特征空间(希尔伯特空间),如果存在一个从 X \mathcal { X } H \mathcal { H } 的映射:

ϕ ( x ) : X H \phi ( x ) : \mathcal { X } \rightarrow \mathcal { H }

使得对所有的 x , z X x , z \in \mathcal { X } ,函数 K ( x , z ) K ( x , z ) 满足

K ( x , z ) = ϕ ( x ) ϕ ( z ) K ( x , z ) = \phi ( x ) \cdot \phi ( z )

则称 K ( x , z ) K ( x , z ) 为核函数, ϕ ( x ) \phi ( x ) 为映射函数, ϕ ( x ) ϕ ( z ) \phi ( x ) \cdot \phi ( z ) ϕ ( x ) \phi ( x ) ϕ ( z ) \phi ( z ) 的內积。

核技巧:

我们在学习与预测中只定义核函数 K ( x , z ) K ( x , z ) ,不显式定义映射函数 ϕ ( x ) \phi ( x ) 。直接计算 K ( x , z ) K ( x , z ) 比计算 ϕ ( x ) ϕ ( z ) \phi ( x ) \cdot \phi ( z ) 得到 K ( x , z ) K ( x , z ) 要更加容易。

由于 ϕ \phi 是输入空间 R n \mathbf { R } ^ { n } 到特征空间 H \mathcal { H } 的映射,而特征空间一般是高维的,因此对于给定的核函数 K ( x , z ) K ( x , z ) ,特征空间 H \mathcal { H } 和映射函数 ϕ \phi 的取法并不唯一。

核技巧在支持向量机算法中的应用

在对偶问题的目标函数: min a 1 2 i = 1 N j = 1 N α i α j y i y j ( x i x j ) i = 1 N α i \min _ { a } \frac { 1 } { 2 } \sum _ { i = 1 } ^ { N } \sum _ { j = 1 } ^ { N } \alpha _ { i } \alpha _ { j } y _ { i } y _ { j } \left( x _ { i } \cdot x _ { j } \right) - \sum _ { i = 1 } ^ { N } \alpha _ { i } 中的內积 x i x j x _ { i } \cdot x _ { j } 可以用核函数 K ( x i , x j ) = ϕ ( x i ) ϕ ( x j ) K \left( x _ { i } , x _ { j } \right) = \phi \left( x _ { i } \right) \cdot \phi \left( x _ { j } \right) 来表示。

于是目标函数变为:

W ( α ) = 1 2 i = 1 N j = 1 N α i α j y i y j K ( x i , x j ) i = 1 N α i W ( \alpha ) = \frac { 1 } { 2 } \sum _ { i = 1 } ^ { N } \sum _ { j = 1 } ^ { N } \alpha _ { i } \alpha _ { j } y _ { i } y _ { j } K \left( x _ { i } , x _ { j } \right) - \sum _ { i = 1 } ^ { N } \alpha _ { i }

同理,分类决策函数中的內积也可以用核函数表示,所以分类决策函数变为:

f ( x ) = sign ( i = 1 N n a i y i ϕ ( x i ) ϕ ( x ) + b ) = sign ( i = 1 N n a i y i K ( x i , x ) + b ) f ( x ) = \operatorname { sign } \left( \sum _ { i = 1 } ^ { N _ { n } } a _ { i } ^ { * } y _ { i } \phi \left( x _ { i } \right) \cdot \phi ( x ) + b ^ { * } \right) = \operatorname { sign } \left( \sum _ { i = 1 } ^ { N _ { n } } a _ { i } ^ { * } y _ { i } K \left( x _ { i } , x \right) + b ^ { * } \right)

这样就相当于我们将输入空间的內积 x i x j x _ { i } \cdot x _ { j } 变换为特征空间中的內积 ϕ ( x i ) ϕ ( x j ) \phi \left( x _ { i } \right) \cdot \phi \left( x _ { j } \right) ,我们是从训练样本在特征空间中的数据中学习训练支持向量机。当映射函数是非线性函数时,学习到的含有核函数的支持向量机是非线性分类的模型。

这里如何通俗地理解呢?

我们只定义了核函数,而映射 ϕ ( x ) \phi ( x ) 具体是什么形式我们不进行定义也不知道(我们不知道 ϕ ( x ) \phi ( x ) 的数学形式,也不知道特征空间有多少维),但是通过训练样本数据我们可以学习出映射 ϕ ( x ) \phi ( x ) ,使得输入一个x就可以得到对应的 ϕ ( x ) \phi ( x ) 值(有点像深度神经网络)。这样我们就不需要定义特征空间具体是多少维,也不需要计算输入空间的数据点在特征空间的对应的具体数据点,这大大减少了计算量。

核函数的判定

X R n , K ( x , z ) \mathcal { X } \subset \mathbf { R } ^ { n } , \quad K ( x , z ) 是定义在 X × X \mathcal { X } \times \mathcal { X } 上的对称函数,如果对任意 x i X , i = 1 , 2 ,   , m x _ { i } \in \mathcal { X } , \quad i = 1,2 , \cdots , m K ( x , z ) K ( x , z ) 对应的Gram矩阵

K = [ K ( x i , x j ) ] m × m K = \left[ K \left( x _ { i } , x _ { j } \right) \right] _ { m \times m }

是半正定矩阵,则 K ( x , z ) K ( x , z ) 是正定核。

Gram矩阵的定义:

n维欧式空间中任意 k ( k n ) k ( k \leq n ) 个向量 α 1 , α 2 , , α k \alpha _ { 1 } , \alpha _ { 2 } , \dots , \alpha _ { k } 的內积所组成的矩阵

Δ ( α 1 , α 2 , , α k ) = ( ( α 1 , α 1 ) ( α 1 , α 2 ) ( α 1 , α k ) ( α 2 , α 1 ) ( α 2 , α 2 ) ( α 2 , α k ) ( α k , α 1 ) ( α k , α 2 ) ( α k , α k ) ) \Delta \left( \alpha _ { 1 } , \alpha _ { 2 } , \ldots , \alpha _ { k } \right) = \left( \begin{array} { c c c c } { \left( \alpha _ { 1 } , \alpha _ { 1 } \right) } & { \left( \alpha _ { 1 } , \alpha _ { 2 } \right) } & { \dots } & { \left( \alpha _ { 1 } , \alpha _ { k } \right) } \\ { \left( \alpha _ { 2 } , \alpha _ { 1 } \right) } & { \left( \alpha _ { 2 } , \alpha _ { 2 } \right) } & { \dots } & { \left( \alpha _ { 2 } , \alpha _ { k } \right) } \\ { \ldots } & { \cdots } & { \ldots } & { \ldots } \\ { \left( \alpha _ { k } , \alpha _ { 1 } \right) } & { \left( \alpha _ { k } , \alpha _ { 2 } \right) } & { \dots } & { \left( \alpha _ { k } , \alpha _ { k } \right) } \end{array} \right)

称为k个向量 α 1 , α 2 , , α k \alpha _ { 1 } , \alpha _ { 2 } , \dots , \alpha _ { k } 的Gram矩阵。

常用核函数

多项式核函数:

公式为:

K ( x , z ) = ( x z + 1 ) p K ( x , z ) = ( x \cdot z + 1 ) ^ { p }

其对应的支持向量机是一个p次多项式分类器。

其分类决策函数为:

f ( x ) = sign ( i = 1 N i a i y i ( x i x + 1 ) p + b ) f ( x ) = \operatorname { sign } \left( \sum _ { i = 1 } ^ { N _ { i } } a _ { i } ^ { * } y _ { i } \left( x _ { i } \cdot x + 1 \right) ^ { p } + b ^ { * } \right)

高斯核函数:

K ( x , z ) = exp ( x z 2 2 σ 2 ) K ( x , z ) = \exp \left( - \frac { \| x - z \| ^ { 2 } } { 2 \sigma ^ { 2 } } \right)

其对应的支持向量机是高斯径向基函数分类器。对于高斯核函数,如果x和z很接近,那么核函数值为1,如果x和z相差很大,那么核函数值约等于0。也就是说,这个核函数可以比较x和z的相似度,并映射到0到1。

其分类决策函数为:

f ( x ) = sign ( i = 1 N s a i y i exp ( x z 2 2 σ 2 ) + b ) f ( x ) = \operatorname { sign } \left( \sum _ { i = 1 } ^ { N _ { s } } a _ { i } ^ { * } y _ { i } \exp \left( - \frac { \| x - z \| ^ { 2 } } { 2 \sigma ^ { 2 } } \right) + b ^ { * } \right)

其他核函数:

在这里插入图片描述

非线性支持向量机学习算法

输入线性可分训练集 T = { ( x 1 , y 1 ) , ( x 2 , y 2 ) ,   , ( x N , y N ) } T = \left\{ \left( x _ { 1 } , y _ { 1 } \right) , \left( x _ { 2 } , y _ { 2 } \right) , \cdots , \left( x _ { N } , y _ { N } \right) \right\} ,其中 x i X = R n x _ { i } \in \mathcal { X } = \mathbf { R } ^ { n } y i y _ { i } \in Y = { 1 , + 1 } , i = 1 , 2 ,   , N \mathcal { Y } = \{ - 1 , + 1 \} , \quad i = 1,2 , \cdots , N

选取适当核函数 K ( x , z ) K ( x , z ) 和适当参数C,构造并求解最优化问题

min α 1 2 i = 1 N j = 1 N α i α j y i y j K ( x i , x j ) i = 1 N α i \min _ { \alpha } \frac { 1 } { 2 } \sum _ { i = 1 } ^ { N } \sum _ { j = 1 } ^ { N } \alpha _ { i } \alpha _ { j } y _ { i } y _ { j } K \left( x _ { i } , x _ { j } \right) - \sum _ { i = 1 } ^ { N } \alpha _ { i }

 s.t.  i = 1 N α i y i = 0 0 α i C , i = 1 , 2 ,   , N \begin{array} { l l } { \text { s.t. } } & { \sum _ { i = 1 } ^ { N } \alpha _ { i } y _ { i } = 0 } \\ { } & { 0 \leqslant \alpha _ { i } \leqslant C , \quad i = 1,2 , \cdots , N } \end{array}

求出最优解 α = ( α 1 , α 2 ,   , α N ) T \alpha ^ { * } = \left( \alpha _ { 1 } ^ { * } , \alpha _ { 2 } ^ { * } , \cdots , \alpha _ { N } ^ { * } \right) ^ { \mathrm { T } }

选择 α \alpha ^ { * } 的一个正分量 0 < α j < C 0 < \alpha _ { j } ^ { * } < C ,计算其 b = y j i = l N α i y i K ( x i x j ) b ^ { * } = y _ { j } - \sum _ { i = l } ^ { N } \alpha _ { i } ^ { * } y _ { i } K \left( x _ { i } \cdot x _ { j } \right)

最后,构造决策函数:

f ( x ) = sign ( i = 1 N α i y i K ( x x i ) + b ) f ( x ) = \operatorname { sign } \left( \sum _ { i = 1 } ^ { N } \alpha _ { i } ^ { * } y _ { i } K \left( x \cdot x _ { i } \right) + b ^ { * } \right)

序列最小最优化(sequential minimal optimisation,SMO)算法

求解上面最优化问题的最优解 α = ( α 1 , α 2 ,   , α N ) T \alpha ^ { * } = \left( \alpha _ { 1 } ^ { * } , \alpha _ { 2 } ^ { * } , \cdots , \alpha _ { N } ^ { * } \right) ^ { \mathrm { T } } 的方式有很多,现在最常用的是SMO算法。该算法的思路是将大的优化问题转化为小的优化问题,而这些小的优化问题往往更容易求解,并且对它们进行顺序求解的结果和将它们作为整体求解的结果完全一致,但是SMO算法需要的时间要小得多。

KKT条件

对约束优化问题

minimize f ( x ) f ( x )
subject to g ( x ) 0 g ( x ) \leqslant 0

列拉格朗日函数 L ( x , λ ) = f ( x ) + λ g ( x ) L ( x , \lambda ) = f ( x ) + \lambda g ( x )

最佳解的必要条件包括拉格朗日函数 L ( x , λ ) L ( x , \lambda ) 的定常方程式、原始可行性、对偶可行性和松弛互补条件,用公式表示为:

x L = f + λ g ( x ) = 0 \nabla _ { x } L = \nabla f + \lambda g ( x ) = 0 # 拉格朗日函数取得可行解的必要条件
g ( x ) 0 g ( x ) \leqslant 0 # 初始的不等式约束条件
λ 0 \lambda \geqslant 0 # 不等式约束的拉格朗日乘数需满足的条件
λ g ( x ) = 0 \lambda g ( x ) = 0 # 松弛互补条件

这就是KKT条件。如果我们要最大化 f ( x ) f ( x ) 且受限于 g ( x ) 0 g ( x ) \leqslant 0 ,那么对偶可行性要改成 λ 0 \lambda \leqslant 0

SMO算法的基本思路

如果SMO算法要解如下凸二次规划的对偶问题:

min α 1 2 i = 1 N j = 1 N α i α j y i y j K ( x i , x j ) i = 1 N α i \min _ { \alpha } \frac { 1 } { 2 } \sum _ { i = 1 } ^ { N } \sum _ { j = 1 } ^ { N } \alpha _ { i } \alpha _ { j } y _ { i } y _ { j } K \left( x _ { i } , x _ { j } \right) - \sum _ { i = 1 } ^ { N } \alpha _ { i }

 s.t.  i = 1 N α i y i = 0 0 α i C , i = 1 , 2 ,   , N \begin{array} { l l } { \text { s.t. } } & { \sum _ { i = 1 } ^ { N } \alpha _ { i } y _ { i } = 0 } \\ { } & { 0 \leqslant \alpha _ { i } \leqslant C , \quad i = 1,2 , \cdots , N } \end{array}

在这个问题中,变量是拉格朗日乘子,一个变量 α i \alpha _ { i } 对应于一个样本点 ( x i , y i ) \left( x _ { i } , y _ { i } \right) ,变量的总数等于训练样本容量N。

如果所有变量的解都满足此最优化问题的KKT条件,那么就可以得到这个最优化问题的解,因为KKT条件是该最优化问题的充分必要条件。否则我们就任意抽取两个变量,固定其他变量,针对这两个变量构建一个二次规划问题。这个二次规划问题关于这两个变量的解应该更接近原始二次规划问题的解,因为这会使得原始二次规划问题的目标函数值变得更小。重要的是,这时子问题可以通过解析方法求解,这样就可以大大提高整个算法的计算速度。如此,SMO算法将原问题不断分解为子问题并对子问题求解,进而达到求解原问题的目的。

子问题有两个变量,一个是违反KKT条件最严重的那一个,另一个由约束条件自动确定。也就是说,子问题只有一个自由变量。

假如是 α 1 , α 2 \alpha _ { 1 } , \alpha _ { 2 } 两个变量, α 3 , α 4 ,   , α N \alpha _ { 3 } , \alpha _ { 4 } , \cdots , \alpha _ { N } 固定,那么由等式s.t. i = 1 N α i y i = 0 \quad \sum _ { i = 1 } ^ { N } \alpha _ { i } y _ { i } = 0 可知:

α 1 = y 1 i = 2 N α i y i \alpha _ { 1 } = - y _ { 1 } \sum _ { i = 2 } ^ { N } \alpha _ { i } y _ { i }

因此只要确定了 α 2 \alpha _ { 2 } α 1 \alpha _ { 1 } 就确定了。

整个SMO算法包括两个部分:求解两个变量二次规划的解析方法和选择变量的启发式方法。

两个变量二次规划的求解方法

假如选择 α 1 , α 2 \alpha _ { 1 } , \alpha _ { 2 } 两个变量, α 3 , α 4 ,   , α N \alpha _ { 3 } , \alpha _ { 4 } , \cdots , \alpha _ { N } 固定,那么SMO的最优化问题的子问题为:

min α 1 , α 2 W ( α 1 , α 2 ) = 1 2 K 11 α 1 2 + 1 2 K 22 α 2 2 + y 1 y 2 K 12 α 1 α 2 ( α 1 + α 2 ) + y 1 α 1 i = 3 N y i α i K i 1 + y 2 α 2 i = 3 N y i α i K i 2 \begin{aligned} \min _ { \alpha _ { 1 } , \alpha _ { 2 } } W \left( \alpha _ { 1 } , \alpha _ { 2 } \right) = & \frac { 1 } { 2 } K _ { 11 } \alpha _ { 1 } ^ { 2 } + \frac { 1 } { 2 } K _ { 22 } \alpha _ { 2 } ^ { 2 } + y _ { 1 } y _ { 2 } K _ { 12 } \alpha _ { 1 } \alpha _ { 2 } \\ & - \left( \alpha _ { 1 } + \alpha _ { 2 } \right) + y _ { 1 } \alpha _ { 1 } \sum _ { i = 3 } ^ { N } y _ { i } \alpha _ { i } K _ { i 1 } + y _ { 2 } \alpha _ { 2 } \sum _ { i = 3 } ^ { N } y _ { i } \alpha _ { i } K _ { i 2 } \end{aligned}

 s.t.  α 1 y 1 + α 2 y 2 = i = 3 N y i α i = ζ \begin{array} { l l } { \text { s.t. } } & { \alpha _ { 1 } y _ { 1 } + \alpha _ { 2 } y _ { 2 } = - \sum _ { i = 3 } ^ { N } y _ { i } \alpha _ { i } = \zeta }\end{array}

0 α i C , i = 1 , 2 0 \leqslant \alpha _ { i } \leqslant C , \quad i = 1,2

其中 K i j = K ( x i , x j ) , i , j = 1 , 2 ,   , N K _ { i j } = K \left( x _ { i } , x _ { j } \right) , i , j = 1,2 , \cdots , N ζ \zeta 是常数。

0 α i C , i = 1 , 2 0 \leqslant \alpha _ { i } \leqslant C , \quad i = 1,2 的约束和 y 1 , y 2 y _ { 1 } , y _ { 2 } 均只能取值1或者-1, 这使得 ( α 1 , α 2 ) \left( \alpha _ { 1 } , \alpha _ { 2 } \right) 在盒子 [ 0 , C ] × [ 0 , C ] [ 0 , C ] \times [ 0 , C ] 内,并且两者的关系直线的斜率只能为1或者-1,也就是说 α 1 , α 2 \alpha _ { 1 } , \alpha _ { 2 } 的关系直线平行于 [ 0 , C ] [ 0 , C ] [ 0 , C ] [ 0 , C ] 形成的盒子的对角线。如下图所示:

在这里插入图片描述

由于 α 1 , α 2 \alpha _ { 1 } , \alpha _ { 2 } 的关系被限制在盒子里的一条线段上,这使得两个变量的最优化问题可以转化为单变量的最优化问题。

我们不妨假设最终是 α 2 \alpha _ { 2 } 的优化问题。

由于我们采用的是启发式的迭代法,假设我们上一轮迭代得到的解是 α 1 o l d , α 2 o l d \alpha _ { 1 } ^ { old } , \alpha _ { 2 } ^ { old } ,假设沿着约束方向 α 2 \alpha _ { 2 } 未经剪辑的解是 α 2 n e w , u n c \alpha _ { 2 } ^ { n e w , u n c } 。本轮迭代完成后的解为 α 1 n e w , α 2 n e w \alpha _ { 1 } ^ { n e w } , \alpha _ { 2 } ^ { n e w }

α 2 n e w \alpha _ { 2 } ^ { n e w } 必须满足上图中的线段约束。假设L和H分别是上图中 α 2 n e w \alpha _ { 2 } ^ { n e w } 所在的线段的边界。那么显然我们有:

L α 2 n e w H L \leq \alpha _ { 2 } ^ { n e w } \leq H

对于L和H,我们也有限制条件。如果是上面左图中的情况,则

L = max ( 0 , α 2 o l d α 1 o l d ) H = min ( C , C + α 2 o l d α 1 o l d ) L = \max \left( 0 , \alpha _ { 2 } ^ { o l d } - \alpha _ { 1 } ^ { o l d } \right) \quad H = \min \left( C , C + \alpha _ { 2 } ^ { o l d } - \alpha _ { 1 } ^ { o l d } \right)

如果是上面右图中的情况,我们有:

L = max ( 0 , α 2 o l d + α 1 o l d C ) H = min ( C , α 2 o l d + α 1 o l d ) L = \max \left( 0 , \alpha _ { 2 } ^ { o l d } + \alpha _ { 1 } ^ { o l d } - C \right) \quad H = \min \left( C , \alpha _ { 2 } ^ { o l d } + \alpha _ { 1 } ^ { o l d } \right)

假如我们通过求导得到 α 2 n e w , u n c \alpha _ { 2 } ^ { n e w , u n c } ,则最终的 α 2 n e w \alpha _ { 2 } ^ { n e w } 应该为:

α 2 n e w = { H α 2 n e w , u n c > H α 2 n e w , u n c L α 2 n e w , u n c H L α 2 n e w , u n c < L \alpha _ { 2 } ^ { n e w } = \left\{ \begin{array} { l l } { H } & { \alpha _ { 2 } ^ { n e w , u n c } > H } \\ { \alpha _ { 2 } ^ { n e w , u n c } } & { L \leq \alpha _ { 2 } ^ { n e w , u n c } \leq H } \\ { L } & { \alpha _ { 2 } ^ { n e w , u n c } < L } \end{array} \right.

如何求出 α 2 n e w , u n c \alpha _ { 2 } ^ { n e w , u n c } 呢?很简单,我们只需要将目标函数对 α 2 \alpha _ { 2 } 求偏导数即可。

E i = g ( x i ) y i = j = 1 m α j y j K ( x i , x j ) + b y i E _ { i } = g \left( x _ { i } \right) - y _ { i } = \sum _ { j = 1 } ^ { m } \alpha _ { j } ^ { * } y _ { j } K \left( x _ { i } , x _ { j } \right) + b - y _ { i } ,其中 g ( x ) = w ϕ ( x ) + b = j = 1 m α j y j K ( x , x j ) + b g ( x ) = w ^ { * } \cdot \phi ( x ) + b = \sum _ { j = 1 } ^ { m } \alpha _ { j } ^ { * } y _ { j } K \left( x , x _ { j } \right) + b ^ { * }

v i = j = 3 m y j α j K ( x i , x j ) = g ( x i ) j = 1 2 y j α j K ( x i , x j ) b v _ { i } = \sum _ { j = 3 } ^ { m } y _ { j } \alpha _ { j } K \left( x _ { i } , x _ { j } \right) = g \left( x _ { i } \right) - \sum _ { j = 1 } ^ { 2 } y _ { j } \alpha _ { j } K \left( x _ { i } , x _ { j } \right) - b

于是我们的目标函数简化为:

W ( α 1 , α 2 ) = 1 2 K 11 α 1 2 + 1 2 K 22 α 2 2 + y 1 y 2 K 12 α 1 α 2 ( α 1 + α 2 ) + y 1 α 1 v 1 + y 2 α 2 v 2 W \left( \alpha _ { 1 } , \alpha _ { 2 } \right) = \frac { 1 } { 2 } K _ { 11 } \alpha _ { 1 } ^ { 2 } + \frac { 1 } { 2 } K _ { 22 } \alpha _ { 2 } ^ { 2 } + y _ { 1 } y _ { 2 } K _ { 12 } \alpha _ { 1 } \alpha _ { 2 } - \left( \alpha _ { 1 } + \alpha _ { 2 } \right) + y _ { 1 } \alpha _ { 1 } v _ { 1 } + y _ { 2 } \alpha _ { 2 } v _ { 2 }

又由于 α 1 y 1 + α 2 y 2 = ζ \alpha _ { 1 } y _ { 1 } + \alpha _ { 2 } y _ { 2 } = \zeta y i 2 = 1 y _ { i } ^ { 2 } = 1 ,那么可得

α 1 = y 1 ( s α 2 y 2 ) \alpha _ { 1 } = y _ { 1 } \left( s - \alpha _ { 2 } y _ { 2 } \right)

将上式带入我们的目标优化函数,就可以消除 α 1 \alpha _ { 1 }

W ( α 2 ) = 1 2 K 11 ( ζ α 2 y 2 ) 2 + 1 2 K 22 α 2 2 + y 2 K 12 ( ζ α 2 y 2 ) α 2 ( α 1 + α 2 ) + ( ζ α 2 y 2 ) v 1 + y 2 α 2 v 2 W \left( \alpha _ { 2 } \right) = \frac { 1 } { 2 } K _ { 11 } \left( \zeta - \alpha _ { 2 } y _ { 2 } \right) ^ { 2 } + \frac { 1 } { 2 } K _ { 22 } \alpha _ { 2 } ^ { 2 } + y _ { 2 } K _ { 12 } \left( \zeta - \alpha _ { 2 } y _ { 2 } \right) \alpha _ { 2 } - \left( \alpha _ { 1 } + \alpha _ { 2 } \right) + \left( \zeta - \alpha _ { 2 } y _ { 2 } \right) v _ { 1 } + y _ { 2 } \alpha _ { 2 } v _ { 2 }

再对 α 2 \alpha _ { 2 } 求偏导数,令偏导数为0:

W α 2 = K 11 α 2 + K 22 α 2 2 K 12 α 2 K 11 s y 2 + K 12 s y 2 + y 1 y 2 1 v 1 y 2 + y 2 v 2 = 0 \frac { \partial W } { \partial \alpha _ { 2 } } = K _ { 11 } \alpha _ { 2 } + K _ { 22 } \alpha _ { 2 } - 2 K _ { 12 } \alpha _ { 2 } - K _ { 11 } s y _ { 2 } + K _ { 12 } s y _ { 2 } + y _ { 1 } y _ { 2 } - 1 - v _ { 1 } y _ { 2 } + y _ { 2 } v _ { 2 } = 0

可得

( K 11 + K 22 2 K 12 ) α 2 = y 2 ( y 2 y 1 + ζ K 11 ζ K 12 + v 1 v 2 ) \left( K _ { 11 } + K _ { 22 } - 2 K _ { 12 } \right) \alpha _ { 2 } = y _ { 2 } \left( y _ { 2 } - y _ { 1 } + _ { \zeta } K _ { 11 } - _ { \zeta } K _ { 12 } + v _ { 1 } - v _ { 2 } \right)
= y 2 ( y 2 y 1 + s K 11 s K 12 + ( g ( x 1 ) j = 1 2 y j α j K 1 j b ) ( g ( x 2 ) j = 1 2 y j α j K 2 j b ) ) = y _ { 2 } \left( y _ { 2 } - y _ { 1 } + s K _ { 11 } - s K _ { 12 } + \left( g \left( x _ { 1 } \right) - \sum _ { j = 1 } ^ { 2 } y _ { j } \alpha _ { j } K _ { 1 j } - b \right) - \left( g \left( x _ { 2 } \right) - \sum _ { j = 1 } ^ { 2 } y _ { j } \alpha _ { j } K _ { 2 j } - b \right) \right)

ζ = α 1 y 1 + α 2 y 2 \zeta = \alpha _ { 1 } y _ { 1 } + \alpha _ { 2 } y _ { 2 } 代入上式,有:

( K 11 + K 22 2 K 12 ) α 2 n e w , u n c = y 2 ( ( K 11 + K 22 2 K 12 ) α 2 o l d y 2 + y 2 y 1 + g ( x 1 ) g ( x 2 ) ) = ( K 11 + K 22 2 K 12 ) α 2 o l d + y 2 ( E 1 E 2 ) \begin{aligned} \left( K _ { 11 } + K _ { 22 } - 2 K _ { 12 } \right) \alpha _ { 2 } ^ { n e w , u n c } & = y _ { 2 } \left( \left( K _ { 11 } + K _ { 22 } - 2 K _ { 12 } \right) \alpha _ { 2 } ^ { o l d } y _ { 2 } + y _ { 2 } - y _ { 1 } + g \left( x _ { 1 } \right) - g \left( x _ { 2 } \right) \right) \\ & = \left( K _ { 11 } + K _ { 22 } - 2 K _ { 12 } \right) \alpha _ { 2 } ^ { o l d } + y _ { 2 } \left( E _ { 1 } - E _ { 2 } \right) \end{aligned}

于是我们最后可得 α 2 n e w , u n c \alpha _ { 2 } ^ { n e w , u n c } 表达式为:

α 2 n e w , u n c = α 2 o l d + y 2 ( E 1 E 2 ) K 11 + K 22 2 K 12 ) \alpha _ { 2 } ^ { n e w , u n c } = \alpha _ { 2 } ^ { o l d } + \frac { y _ { 2 } \left( E _ { 1 } - E _ { 2 } \right) } { K _ { 11 } + K _ { 22 } - 2 K _ { 12 } ) }

再利用式子:

α 2 n e w = { H α 2 n e w , u n c > H α 2 n e w , u n c L α 2 n e w , u n c H L α 2 n e w , u n c < L \alpha _ { 2 } ^ { n e w } = \left\{ \begin{array} { l l } { H } & { \alpha _ { 2 } ^ { n e w , u n c } > H } \\ { \alpha _ { 2 } ^ { n e w , u n c } } & { L \leq \alpha _ { 2 } ^ { n e w , u n c } \leq H } \\ { L } & { \alpha _ { 2 } ^ { n e w , u n c } < L } \end{array} \right.

就可以更新 α 2 n e w \alpha _ { 2 } ^ { n e w } 了。知道了 α 2 n e w \alpha _ { 2 } ^ { n e w } ,那么我们也就知道了 α 1 n e w \alpha _ { 1 } ^ { n e w }

SMO算法两个变量的选择方法

SMO算法在每个子问题中选择两个变量优化,其中至少一个变量是违反KKT条件的。

第一个变量的选择:

SMO算法称选择第一个变量为外层循环,这个变量需要选择在训练集中违反KKT条件最严重的样本点。对于每个样本点,要满足的KKT条件为:

α i = 0 y i g ( x i ) 1 \alpha _ { i } ^ { * } = 0 \Rightarrow y _ { i } g \left( x _ { i } \right) \geq 1
0 < α i < C y i g ( x i ) = 1 0 < \alpha _ { i } ^ { * } < C \Rightarrow y _ { i } g \left( x _ { i } \right) = 1
α i = C y i g ( x i ) 1 \alpha _ { i } ^ { * } = C \Rightarrow y _ { i } g \left( x _ { i } \right) \leq 1

一般来说,我们首先选择违反 0 < α i < C y i g ( x i ) = 1 0 < \alpha _ { i } ^ { * } < C \Rightarrow y _ { i } g \left( x _ { i } \right) = 1 这个条件的点。如果这些支持向量都满足KKT条件,再选择违反 α i = 0 y i g ( x i ) 1 \alpha _ { i } ^ { * } = 0 \Rightarrow y _ { i } g \left( x _ { i } \right) \geq 1 α i = C y i g ( x i ) 1 \alpha _ { i } ^ { * } = C \Rightarrow y _ { i } g \left( x _ { i } \right) \leq 1 的点。

第二个变量的选择:

SMO算法称选择第二个变量为内层循环,假设我们在外层循环已经找到了 α 1 \alpha _ { 1 } , 第二个变量 α 2 \alpha _ { 2 } 的选择标准是让 E 1 E 2 | E 1 - E 2 | 有足够大的变化。由于 α 1 \alpha _ { 1 } 确定时,E1也确定了,所以要想 E 1 E 2 | E 1 - E 2 | 最大,只需要在E1为正时,选择最小的 E i E _ { i } 作为E2, 在E1为负时,选择最大的 E i E _ { i } 作2E2,可以将所有的 E i E _ { i } 保存下来加快迭代。

如果内存循环找到的点不能让目标函数有足够的下降, 可以采用遍历支持向量点来做 α 2 \alpha _ { 2 } ,直到目标函数有足够的下降, 如果所有的支持向量做 α 2 \alpha _ { 2 } 都不能让目标函数有足够的下降,可以跳出循环,重新选择 α 1 \alpha _ { 1 }

计算阈值b和差值 E i E _ { i }

在每次完成两个变量的优化之后,需要重新计算阈值b。当 0 < α 1 n e w < C 0 < \alpha _ { 1 } ^ { n e w } < C 时,有

y 1 i = 1 m α i y i K i 1 b 1 = 0 y _ { 1 } - \sum _ { i = 1 } ^ { m } \alpha _ { i } y _ { i } K _ { i 1 } - b _ { 1 } = 0

于是更新 b 1 n e w b _ { 1 } ^ { n e w } 为:

b 1 n e w = y 1 i = 3 m α i y i K i 1 α 1 n e w y 1 K 11 α 2 n e w y 2 K 21 b _ { 1 } ^ { n e w } = y _ { 1 } - \sum _ { i = 3 } ^ { m } \alpha _ { i } y _ { i } K _ { i 1 } - \alpha _ { 1 } ^ { n e w } y _ { 1 } K _ { 11 } - \alpha _ { 2 } ^ { n e w } y _ { 2 } K _ { 21 }

计算E1为:

E 1 = g ( x 1 ) y 1 = i = 3 m α i y i K i 1 + α 1 o l d y 1 K 11 + α 2 o l d y 2 K 21 + b o l d y 1 E _ { 1 } = g \left( x _ { 1 } \right) - y _ { 1 } = \sum _ { i = 3 } ^ { m } \alpha _ { i } y _ { i } K _ { i 1 } + \alpha _ { 1 } ^ { o l d } y _ { 1 } K _ { 11 } + \alpha _ { 2 } ^ { o l d } y _ { 2 } K _ { 21 } + b ^ { o l d } - y _ { 1 }

上两式都含有 y 1 i = 3 m α i y i K i 1 y _ { 1 } - \sum _ { i = 3 } ^ { m } \alpha _ { i } y _ { i } K _ { i 1 } ,故可以将可以将 b 1 n e w b _ { 1 } ^ { n e w } 用E1表示为:

b 1 n e w = E 1 y 1 K 11 ( α 1 n e w α 1 o l d ) y 2 K 21 ( α 2 n e w α 2 o l d ) + b o l d b _ { 1 } ^ { n e w } = - E _ { 1 } - y _ { 1 } K _ { 11 } \left( \alpha _ { 1 } ^ { n e w } - \alpha _ { 1 } ^ { o l d } \right) - y _ { 2 } K _ { 21 } \left( \alpha _ { 2 } ^ { n e w } - \alpha _ { 2 } ^ { o l d } \right) + b ^ { o l d }

同理,若 0 < α 2 n e w < C 0 < \alpha _ { 2 } ^ { n e w } < C ,则

b 2 n e w = E 2 y 1 K 12 ( α 1 n e w α 1 o l d ) y 2 K 22 ( α 2 n e w α 2 o l d ) + b o l d b _ { 2 } ^ { n e w } = - E _ { 2 } - y _ { 1 } K _ { 12 } \left( \alpha _ { 1 } ^ { n e w } - \alpha _ { 1 } ^ { o l d } \right) - y _ { 2 } K _ { 22 } \left( \alpha _ { 2 } ^ { n e w } - \alpha _ { 2 } ^ { o l d } \right) + b ^ { o l d }

最终的 b n e w b ^ { n e w } 为:

b n e w = b 1 n e w + b 2 n e w 2 b ^ { n e w } = \frac { b _ { 1 } ^ { n e w } + b _ { 2 } ^ { n e w } } { 2 }

得到了 b n e w b ^ { n e w } 我们需要更新 E i E _ { i }

E i = S y j α j K ( x i , x j ) + b n e w y i E _ { i } = \sum _ { S } y _ { j } \alpha _ { j } K \left( x _ { i } , x _ { j } \right) + b ^ { n e w } - y _ { i }

其中,S是所有支持向量 x j x _ { j } 的集合。

SMO算法步骤总结

输入m个样本 ( x 1 , y 1 ) , ( x 2 , y 2 ) , , ( x m , y m ) \left( x _ { 1 } , y _ { 1 } \right) , \left( x _ { 2 } , y _ { 2 } \right) , \dots , \left( x _ { m } , y _ { m } \right) ,其中x为n维特征向量。y为二元输出,值为1,或者-1。精度为e。

输出是近似解向量 α \alpha

  • 首先取初值 α 0 = 0 , k = 0 \alpha ^ { 0 } = 0 , k = 0
  • 按第一个变量的选择方法来选择 α 1 k \alpha _ { 1 } ^ { k } ,按第二个变量 的选择方法选择 α 2 k \alpha _ { 2 } ^ { k } ,然后求出新的 α 2 n e w , u n c \alpha _ { 2 } ^ { n e w , u n c }

α 2 n e w , u n c = α 2 k + y 2 ( E 1 E 2 ) K 11 + K 22 2 K 12 ) \alpha _ { 2 } ^ { n e w , u n c } = \alpha _ { 2 } ^ { k } + \frac { y _ { 2 } \left( E _ { 1 } - E _ { 2 } \right) } { K _ { 11 } + K _ { 22 } - 2 K _ { 12 } ) }

  • 按照下式求出 α 2 k + 1 \alpha _ { 2 } ^ { k + 1 }

α 2 k + 1 = { H L α 2 n e w , u n c > H α 2 n e w , u n c L α 2 n e w , u n c H L α 2 n e w , u n c < L \alpha _ { 2 } ^ { k + 1 } = \left\{ \begin{array} { l l } { H } & { L \leq \alpha _ { 2 } ^ { n e w , u n c } > H } \\ { \alpha _ { 2 } ^ { n e w , u n c } } & { L \leq \alpha _ { 2 } ^ { n e w , u n c } \leq H } \\ { L } & { \alpha _ { 2 } ^ { n e w , u n c } < L } \end{array} \right.

  • 利用 α 2 k + 1 \alpha _ { 2 } ^ { k + 1 } α 1 k + 1 \alpha _ { 1 } ^ { k + 1 } 的关系求出 α 1 k + 1 \alpha _ { 1 } ^ { k + 1 }
  • 计算 b k + 1 b ^ { k + 1 } E i E _ { i }
  • 在精度e范围内检查是否满足如下的终止条件:

i = 1 m α i y i = 0 \sum _ { i = 1 } ^ { m } \alpha _ { i } y _ { i } = 0
0 α i C , i = 1 , 2 m 0 \leq \alpha _ { i } \leq C , i = 1,2 \ldots m
α i k + 1 = 0 y i g ( x i ) 1 \alpha _ { i } ^ { k + 1 } = 0 \Rightarrow y _ { i } g \left( x _ { i } \right) \geq 1
0 < α i k + 1 < C y i g ( x i ) = 1 0 < \alpha _ { i } ^ { k + 1 } < C \Rightarrow y _ { i } g \left( x _ { i } \right) = 1
α i k + 1 = C y i g ( x i ) 1 \alpha _ { i } ^ { k + 1 } = C \Rightarrow y _ { i } g \left( x _ { i } \right) \leq 1

  • 如果满足则结束,返回 α k + 1 \alpha ^ { k + 1 } ,否则跳回第二步。

猜你喜欢

转载自blog.csdn.net/zgcr654321/article/details/85487611