2-4 梯度下降法的收敛证明

证明:经过有限次迭代,可以得到一个将线性可分的训练数据集完全正确划分的分离超平面及感知机模型

当训练数据集线性不可分时,算法不收敛

假设前提:

  1. 所有训练数据点都线性可分的
  2. 初值 ( w 0 , b 0 ) = 0 (w_0, b_0) = \vec{0}

证明前的一些定义

(1)令
w ^ = ( w T , b ) T       x ^ = ( x , 1 ) \hat w = (w^T, b)^T \ \ \ \ \ 向量一般默认为列向量 \\ \hat x = (x, 1)

w ^ x ^ = w x + b \hat w \cdot \hat x = w \cdot x + b
(2)
所有训练数据点都线性可分
\Rightarrow \exists 一个超平面,使得所有训练数据集都被正确划分
令这个超平面为
w ^ o p t x ^ = 0 w ^ o p t = 1 (15) \hat w_{opt} \cdot \hat x = 0 且 ||\hat w_{opt}|| = 1 \tag {15}
(3)令
γ = m i n i { y i ( w ^ o p t x ^ i ) } (1) \gamma = min_i\{y_i(\hat w_{opt} \cdot \hat x_i)\} \tag {1}
(4)令 w ^ k \hat w_k k 为更新了k次之后的 w ^ \hat w
(5)令
R = m a x 1 i n x ^ i (10) R = max_{1 \le i \le n}||\hat x_i|| \tag {10}

证明过程

超平面 w ^ o p t x ^ = 0 \hat w_{opt} \cdot \hat x = 0 将所有数据都完全正确的分开
( x ^ i , y i ) \Rightarrow \forall (\hat x_i, y_i) ,有 y i y_i w ^ o p t x ^ i \hat w_{opt} \cdot \hat x_i 符号相同,且两者都不为0
( x ^ i , y i ) \Rightarrow \forall (\hat x_i, y_i) ,有 y i ( w ^ o p t x ^ i ) > 0 y_i(\hat w_{opt} \cdot \hat x_i)>0
以上结论结合公式(1)得:
y i ( w ^ o p t x ^ i ) γ > 0 (2) y_i(\hat w_{opt} \cdot \hat x_i) \ge \gamma \gt 0 \tag {2}


假设算法已经更新了k次,则至少有一个样本点在超平面 w ^ k 1 x ^ = 0 \hat w_{k-1} \cdot \hat x = 0 上分类错误
假设 ( x i , y i ) (x_i, y_i) 就是这个分类错误的点,则
y i ( w ^ k 1 x ^ i ) < 0 (9) y_i(\hat w_{k-1} \cdot \hat x_i) < 0 \tag {9}
且:
{ w k = w k 1 + η y i x i b k = b k 1 + η y i (3) \begin{cases} w_k = w_{k-1} + \eta y_ix_i \\ b_k = b_{k-1} + \eta y_i \end{cases} \tag {3}
计算 w ^ k \hat w_{k} w ^ k 1 \hat w_{k-1} 的关系:
w ^ k = ( w k , b k ) = ( w k 1 + η y i x i , b k 1 + η y i ) = ( w k 1 , b k 1 ) + ( η y i x i , η y i ) = w ^ k 1 + η y i ( x i , 1 ) = w ^ k 1 + η y i x ^ i \hat w_k = (w_k, b_k) = (w_{k-1} + \eta y_ix_i, b_{k-1} + \eta y_i) \\ = (w_{k-1}, b_{k-1}) + (\eta y_ix_i, \eta y_i) = \hat w_{k-1} + \eta y_i (x_i, 1) = \hat w_{k-1} + \eta y_i \hat x_i
得到:
w ^ k = w ^ k 1 + η y i x ^ i (4) \hat w_k = \hat w_{k-1} + \eta y_i \hat x_i \tag {4}
Note: 由公式(3)推公式(4)本来很简单,之前一直推不出来是因为我把公式(4) η y i x ^ i \eta y_i \hat x_i n u m p y 4 当成了一个数,用numpy里面向量和数值相加的公式来算公式(4)。实际上 η y i x ^ i \eta y_i \hat x_i 也是一个n+1的向量,应该使用向量的加法来计算公式(4)。


证明 w ^ k w ^ o p t k η γ \hat w_k \cdot \hat w_{opt} \ge k \eta \gamma :
w ^ k w ^ o p t = ( w ^ k 1 + η y i x ^ i ) w ^ o p t (5) \hat w_k \cdot \hat w_{opt} = (\hat w_{k-1} + \eta y_i \hat x_i) \cdot \hat w_{opt} \tag {5}
= w ^ k 1 w ^ o p t + η y i x ^ i w ^ o p t ( ) = \hat w_{k-1} \cdot \hat w_{opt} + \eta y_i \hat x_i \cdot \hat w_{opt} \tag {}
w ^ k 1 w ^ o p t + η γ (6) \ge \hat w_{k-1} \cdot \hat w_{opt} + \eta \gamma \tag {6}
w ^ k 2 w ^ o p t + 2 η γ \ge \hat w_{k-2} \cdot \hat w_{opt} + 2\eta \gamma
( ) \cdots \tag {}
w ^ 0 w ^ o p t + k η γ \ge \hat w_0 \cdot \hat w_{opt} + k\eta \gamma
k η γ (7) \ge k\eta \gamma \tag {7}
公式说明:

  1. 步骤(5):由公式(4)得到
  2. 步骤(6):由公式(2)得到
  3. 步骤(7):假设初值 ( w 0 , b 0 ) = 0 (w_0, b_0) = \vec{0}
    最终得到:
    w ^ k w ^ o p t k η γ (8) \hat w_k \cdot \hat w_{opt} \ge k \eta \gamma \tag {8}

证明 w ^ k 2 k η 2 R 2 ||\hat w_k||^2 \le k \eta^2R^2
w ^ k 2 = w ^ k 1 2 + 2 w ^ k 1 η y i x ^ i + ( η y i x ^ i ) 2 (11) ||\hat w_k||^2 = ||\hat w_{k-1}||^2 + 2\hat w_{k-1}\eta y_i\hat x_i + (\eta y_i \hat x_i)^2 \tag {11}
< w ^ k 1 2 + 0 + η 2 x ^ i 2 (12) \lt ||\hat w_{k-1}||^2 + 0 + \eta^2\hat x_i^2 \tag{12}
w ^ k 1 2 + η 2 R 2 (13) \le ||\hat w_{k-1}||^2 + \eta^2R^2 \tag{13}
w ^ k 2 2 + 2 η 2 R 2 \le ||\hat w_{k-2}||^2 + 2\eta^2R^2
\cdots
w ^ 0 2 + k η 2 R 2 (13) \le ||\hat w_{0}||^2 + k\eta^2R^2 \tag{13}
k η 2 R 2 \le k\eta^2R^2
公式说明:

  1. 步骤(11):结合公式(4)得到
  2. 步骤(12):结合公式(9)得到第二项小于,第三项中 y i 2 = 1 y_i^2=1
  3. 步骤(13):结合公式(10)得到
    最终得到:
    w ^ k 2 k η 2 R 2 (14) ||\hat w_k||^2 \le k \eta^2R^2 \tag {14}

8 k η γ w ^ k w ^ o p t 公式(8)\Rightarrow k\eta\gamma \le \hat w_k \cdot \hat w_{opt}
k 2 η 2 γ 2 w ^ k 2 w ^ o p t 2 \Rightarrow k^2\eta^2\gamma^2 \le ||\hat w_k||^2||\hat w_{opt}||^2
k 2 η 2 γ 2 w ^ k 2 η 2 R 2 (16) \Rightarrow k^2\eta^2\gamma^2 \le ||\hat w_k||^2 \le \eta^2R^2 \tag {16}
k ( R γ ) 2 \Rightarrow k \le (\frac {R}{\gamma})^2
公式说明:

  1. 步骤(16):结合公式(15)

最终结论:
k ( R γ ) 2 k \le (\frac {R}{\gamma})^2
命题得证

发布了407 篇原创文章 · 获赞 328 · 访问量 111万+

猜你喜欢

转载自blog.csdn.net/mishifangxiangdefeng/article/details/104505811
2-4
今日推荐