统计学习方法笔记(十一)支持向量机(二)

线性可分支持向量机与软间隔最大化

一、线性支持向量机
当数据是线性不可分的时候,不等式约束并不总是成立的,所以需要修改硬间隔最大化,使其成为软间隔最大化。
对于训练数据来说,所谓的线性不可分,指数据中有一些特异点,其无法满足函数间隔大于等于1的约束条件。为了解决这个问题,对每个样本点引入了一个松弛变量,使其函数间隔加上这个松弛变量满足相应的条件,这样,约束条件变为:
y i ( w x i + b ) 1 ξ i
同时,因为引入了一个松弛变量,所以要支付一个代价,目标函数变为:
1 2 | | w | | 2 + C i = 1 N ξ i
所以,可以得到如下的凸二次规划问题:
min w , b , ξ 1 2 | | w | | 2 + C i = 1 N ξ i
s . t . y i ( w x i + b ) 1 ξ i , i = 1 , 2 , , N   ξ i 0 , i = 1 , 2 , , N
最终可以证明,w的解是唯一的,而b的解不唯一,且存在一个区间上。
线性支持向量机的模型:
w x + b = 0
f ( x ) = s i g n ( w x + b )
二、学习的对偶算法
1、原始问题的对偶问题变为:
min α 1 2 i = 1 N j = 1 N α i α j y i y j ( x i x j ) i = 1 N α i
s . t . i = 1 N α i y i = 0
0 α i C , i = 1 , 2 , , N
最终可求得,其解为:
w = i = 1 N α i y i x i
b = y j i = 1 N y i α i ( x i x j )
2、支持向量
这里写图片描述
如图所示,支持向量是对应于 α i > 0 的实例点。其或者在间隔边界上,或者在间隔边界与分离超平面之间,或者在分离超平面误分的一侧。
三、合页损失函数
合页损失函数是对线性支持向量机学习的另一种解释,其实质是实现以下目标函数的最小化:
i = 1 N [ 1 y i ( w x i + b ) ] + + λ | | w | | 2
显然,正常来说, y i ( w x i + b ) 应该大于1,代表没有被误分类,损失为0,一旦被误分类,其损失为上式中的第一项。
合页损失函数与原始最优化问题等价。

猜你喜欢

转载自blog.csdn.net/yeyustudy/article/details/80274254