线性支持向量机学习有另一种解释,那就是最小化以下目标函数:
i=1∑N[1−yi(w⋅xi+b)]++λ∣∣w∣∣2
目标函数得第一项是经验损失函数或者经验风险,函数
L(y(w⋅x+b))=[1−y(w⋅x+b)]+称为合页损失函数。下标+表示以下取正值得函数。
[z]+={z,0,z>0z≤0
目标函数第二项是系数为
λ的
w的
L2范数,是正则化项。
定理证明
线性支持向量机原始最优化问题:
w,b,ξmin21∣∣w∣∣2+Ci=1∑Nξi(1)
s.t. yi(w⋅xi+b)≥1−ξi,i=1,2,…,N(2)
ξi≥0,i=1,2,…,N(3)
等价于最优化问题
w,bmini=1∑N[1−yi(w⋅xi+b)]++λ∣∣w∣∣2(4)
证明:
令
[1+yi(w⋅xi+b)]+=ξi,则
ξi≥0,式(2)成立。
当
1−yi(w⋅xi+b)>0时,有
1−yi(w⋅xi+b)=ξi,
yi(w⋅xi+b)=1−ξi;当
1−yi(w⋅xi+b)≤0时,有
ξi=0,
yi(w⋅xi+b)≥1−ξi,故(3)式成立。
于是
w,b,ξ 满足约束条件(2)(3),所以最优化问题(4)可以写成
w,bmini=1∑Nξi+λ∣∣w∣∣2,若取
C⋅2λ=1,则
w,bminC1(21∣∣w∣∣2+Ci=1∑Nξi)