集成学习之Adaboost算法原理

内容来自http://www.360doc.com/content/14/1109/12/20290918_423780183.shtml

一、Adaboost的原理

1.1 Adaboost是什么

AdaBoost,是英文”Adaptive Boosting”(自适应增强)的缩写,由Yoav Freund和Robert Schapire在1995年提出。它的自适应在于:前一个基本分类器分错的样本会得到加强,加权后的全体样本再次被用来训练下一个基本分类器。同时,在每一轮中加入一个新的弱分类器,直到达到某个预定的足够小的错误率或达到预先指定的最大迭代次数。
具体说来,整个Adaboost 迭代算法就3步:

初始化训练数据的权值分布。如果有N个样本,则每一个训练样本最开始时都被赋予相同的权重:1/N。
训练弱分类器。具体训练过程中,如果某个样本点已经被准确地分类,那么在构造下一个训练集中,它的权重就被降低;相反,如果某个样本点没有被准确地分类,那么它的权重就得到提高。然后,权重更新过的样本集被用于训练下一个分类器,整个训练过程如此迭代地进行下去。
将各个训练得到的弱分类器组合成强分类器。各个弱分类器的训练过程结束后,加大分类误差率小的弱分类器的权重,使其在最终的分类函数中起着较大的决定作用,而降低分类误差率大的弱分类器的权重,使其在最终的分类函数中起着较小的决定作用。换言之,误差率低的弱分类器在最终分类器中占的权重较大,否则较小。

1.2 Adaboost算法流程

给定一个训练数据集 T = ( x 1 , y 1 ) , ( x 2 , y 2 ) ( x N , y N ) ,其中实例 x X ,而实例空间 X R n ,yi属于标记集合{-1,+1},Adaboost的目的就是从训练数据中学习一系列弱分类器或基本分类器,然后将这些弱分类器组合成一个强分类器。
Adaboost的算法流程如下:
步骤1. 首先,初始化训练数据的权值分布。每一个训练样本最开始时都被赋予相同的权重:1/N。

D 1 = ( w 11 , w 12 , . . . w 1 i . . . , w 1 N ) , w 1 i = 1 N , i = 1 , 2 , . . . N

步骤2. 进行多轮迭代,用m = 1,2, …, M表示迭代的第多少轮
a. 使用具有权值分布Dm的训练数据集学习,得到基本分类器:
G m ( x ) : x { 1 , + 1 }

b. 计算Gm(x)在训练数据集上的分类误差率
e m = P ( G m ( x i ) y i ) = i = 1 N w m i I ( G m ( x i ) y i )

由上述式子可知,Gm(x)在训练数据集上的误差率em就是被Gm(x)误分类样本的权值之和。
c. 计算Gm(x)的系数,am表示Gm(x)在最终分类器中的重要程度(目的:得到基本分类器在最终分类器中所占的权重):
α m = 1 2 log 1 e m e m

由上述式子可知,em <= 1/2时,am >= 0,且am随着em的减小而增大,意味着分类误差率越小的基本分类器在最终分类器中的作用越大。
d. 更新训练数据集的权值分布(目的:得到样本的新的权值分布),用于下一轮迭代
D m + 1 = ( w m + 1 , 1 , w m + 1 , 2 w m + 1 , i , w m + 1 , N ) , w m + 1 , i = w m i Z m exp ( α m y i G m ( x i ) ) , i = 1 , 2 , , N

使得被基本分类器Gm(x)误分类样本的权值增大,而被正确分类样本的权值减小。就这样,通过这样的方式,AdaBoost方法能“重点关注”或“聚焦于”那些较难分的样本上。
其中,Zm是规范化因子,使得Dm+1成为一个概率分布:
Z m = i = 1 N w m i exp ( α m y i G m ( x i ) )

步骤3. 组合各个弱分类器
f ( x ) = m = 1 M α m G m ( x )

从而得到最终分类器,如下:
G ( x ) = s i g n ( f ( x ) ) = s i g n ( m = 1 M α m G m ( x ) )

1.3 Adaboost的一个例子

下面,给定下列训练样本,请用AdaBoost算法学习一个强分类器。
这里写图片描述
求解过程:初始化训练数据的权值分布,令每个权值W1i = 1/N = 0.1,其中,N = 10,i = 1,2, …, 10,然后分别对于m = 1,2,3, …等值进行迭代。

拿到这10个数据的训练样本后,根据 X 和 Y 的对应关系,要把这10个数据分为两类,一类是“1”,一类是“-1”,根据数据的特点发现:“0 1 2”这3个数据对应的类是“1”,“3 4 5”这3个数据对应的类是“-1”,“6 7 8”这3个数据对应的类是“1”,9是比较孤独的,对应类“-1”。抛开孤独的9不讲,“0 1 2”、“3 4 5”、“6 7 8”这是3类不同的数据,分别对应的类是1、-1、1,直观上推测可知,可以找到对应的数据分界点,比如2.5、5.5、8.5 将那几类数据分成两类。当然,这只是主观臆测,下面实际计算下这个具体过程。

迭代过程1

对于m=1,在权值分布为D1(10个数据,每个数据的权值皆初始化为0.1)的训练数据上,经过计算可得:

  • 阈值v取2.5时误差率为0.3(x < 2.5时取1,x > 2.5时取-1,则6 7 8分错,误差率为0.3)
  • 阈值v取5.5时误差率最低为0.4(x < 5.5时取1,x > 5.5时取-1,则3 4 5 6 7 8皆分错,误差率0.6大于0.5,不可取。故令x > 5.5时取1,x < 5.5时取-1,则0 1 2 9分错,误差率为0.4)
  • 阈值v取8.5时误差率为0.3(x < 8.5时取1,x > 8.5时取-1,则3 4 5分错,误差率为0.3)

可以看到,无论阈值v取2.5,还是8.5,总得分错3个样本,故可任取其中任意一个如2.5,弄成第一个基本分类器为:

G 1 ( x ) = { 1 , x < 2.5 1 , x > 2.5

上面说阈值v取2.5时则6 7 8分错,所以误差率为0.3,更加详细的解释是:因为样本集中

  • 0 1 2对应的类(Y)是1,因它们本身都小于2.5,所以被G1(x)分在了相应的类“1”中,分对了。
  • 3 4 5本身对应的类(Y)是-1,因它们本身都大于2.5,所以被G1(x)分在了相应的类“-1”中,分对了。
  • 但6 7 8本身对应类(Y)是1,却因它们本身大于2.5而被G1(x)分在了类”-1”中,所以这3个样本被分错了。
  • 9本身对应的类(Y)是-1,因它本身大于2.5,所以被G1(x)分在了相应的类“-1”中,分对了。

从而得到G1(x)在训练数据集上的误差率(被G1(x)误分类样本“6 7 8”的权值之和)e1=P(G1(xi)≠yi) = 3*0.1 = 0.3。

扫描二维码关注公众号,回复: 2249324 查看本文章

然后根据误差率e1计算G1的系数:

α 1 = 1 2 log 1 e 1 e 1 = 0.4236

这个a1代表G1(x)在最终的分类函数中所占的权重,为0.4236。
接着更新训练数据的权值分布,用于下一轮迭代:
D m + 1 = ( w m + 1 , 1 , w m + 1 , 2 w m + 1 , i , w m + 1 , N ) , w m + i = w m i Z m exp ( α m y i G m ( x i ) ) , i = 1 , 2 , , N

值得一提的是,由权值更新的公式可知,每个样本的新权值是变大还是变小,取决于它是被分错还是被分正确。

即如果某个样本被分错了,则yi * Gm(xi)为负,负负得正,结果使得整个式子变大(样本权值变大),否则变小。

第一轮迭代后,最后得到各个数据新的权值分布D2 = (0.0715, 0.0715, 0.0715, 0.0715, 0.0715, 0.0715,0.1666, 0.1666, 0.1666, 0.0715)。由此可以看出,因为样本中是数据“6 7 8”被G1(x)分错了,所以它们的权值由之前的0.1增大到0.1666,反之,其它数据皆被分正确,所以它们的权值皆由之前的0.1减小到0.0715。

分类函数f1(x)= a1*G1(x) = 0.4236G1(x)。

此时,得到的第一个基本分类器sign(f1(x))在训练数据集上有3个误分类点(即6 7 8)。

从上述第一轮的整个迭代过程可以看出:被误分类样本的权值之和影响误差率,误差率影响基本分类器在最终分类器中所占的权重。

迭代过程2

对于m=2,在权值分布为D2 = (0.0715, 0.0715, 0.0715, 0.0715, 0.0715, 0.0715, 0.1666, 0.1666, 0.1666, 0.0715)的训练数据上,经过计算可得:

  • 阈值v取2.5时误差率为0.1666*3(x < 2.5时取1,x > 2.5时取-1,则6 7 8分错,误差率为0.1666*3),
  • 阈值v取5.5时误差率最低为0.0715*4(x > 5.5时取1,x < 5.5时取-1,则0 1 2 9分错,误差率为0.0715*3+ 0.0715),
  • 阈值v取8.5时误差率为0.0715*3(x < 8.5时取1,x > 8.5时取-1,则3 4 5分错,误差率为0.0715*3)。

所以,阈值v取8.5时误差率最低,故第二个基本分类器为:

G 2 ( x ) = { 1 , x < 8.5 1 , x > 8.5

面对的还是下述样本:
这里写图片描述
很明显,G2(x)把样本“3 4 5”分错了,根据D2可知它们的权值为0.0715, 0.0715, 0.0715,所以G2(x)在训练数据集上的误差率e2=P(G2(xi)≠yi) = 0.0715 * 3 = 0.2143。

计算G2的系数:

D m + 1 = ( w m + 1 , 1 , w m + 1 , 2 w m + 1 , i , w m + 1 , N ) , w m + 1 , i = w m i Z m exp ( α m y i G m ( x i ) ) , i = 1 , 2 , , N

D3 = (0.0455, 0.0455, 0.0455, 0.1667, 0.1667, 0.01667, 0.1060, 0.1060, 0.1060, 0.0455)。被分错的样本“3 4 5”的权值变大,其它被分对的样本的权值变小。
f2(x)=0.4236G1(x) + 0.6496G2(x)

此时,得到的第二个基本分类器sign(f2(x))在训练数据集上有3个误分类点(即3 4 5)。
迭代过程3

对于m=3,在权值分布为D3 = (0.0455, 0.0455, 0.0455, 0.1667, 0.1667, 0.01667, 0.1060, 0.1060, 0.1060, 0.0455)的训练数据上,经过计算可得:

  • 阈值v取2.5时误差率为0.1060*3(x < 2.5时取1,x > 2.5时取-1,则6 7 8分错,误差率为0.1060*3)
  • 阈值v取5.5时误差率最低为0.0455*4(x > 5.5时取1,x < 5.5时取-1,则0 1 2 9分错,误差率为0.0455*3 + 0.0715)
  • 阈值v取8.5时误差率为0.1667*3(x < 8.5时取1,x > 8.5时取-1,则3 4 5分错,误差率为0.1667*3)。

所以阈值v取5.5时误差率最低,故第三个基本分类器为:

G 3 ( x ) = { 1 , x < 5.5 1 , x > 5.5

面对的还是下述样本:
这里写图片描述
此时,被误分类的样本是:0 1 2 9,这4个样本所对应的权值皆为0.0455,

所以G3(x)在训练数据集上的误差率e3 = P(G3(xi)≠yi) = 0.0455*4 = 0.1820。

计算G3的系数:

α 3 = 1 2 log 1 e 3 e 3 = 0.7514

更新训练数据的权值分布:
D m + 1 = ( w m + 1 , 1 , w m + 1 , 2 w m + 1 , i , w m + 1 , N ) , w m + i = w m i Z m exp ( α m y i G m ( x i ) ) , i = 1 , 2 , , N

D4 = (0.125, 0.125, 0.125, 0.102, 0.102, 0.102, 0.065, 0.065, 0.065, 0.125)。被分错的样本“0 1 2 9”的权值变大,其它被分对的样本的权值变小。

f3(x)=0.4236G1(x) + 0.6496G2(x)+0.7514G3(x)

此时,得到的第三个基本分类器sign(f3(x))在训练数据集上有0个误分类点。至此,整个训练过程结束。
G(x) = sign[f3(x)] = sign[ a1 * G1(x) + a2 * G2(x) + a3 * G3(x) ],将上面计算得到的a1、a2、a3各值代入G(x)中,得到最终的分类器为:G(x) = sign[f3(x)] = sign[ 0.4236G1(x) + 0.6496G2(x)+0.7514G3(x) ]。

总结:

1、样本的权重:

  • 没有先验知识的情况下,初始的分布应为等概分布,也就是训练集如果有N个样本,每个样本的分布概率为1/N
  • 每次循环后提高错误样本的分布概率,分错样本在训练集中所占权重增大,使得下一次勋魂的弱学习机能够集中力量对这些错误样本进行判断

2、弱学习机的权重

  • 准确率越高的弱学习机权重越高

3、循环控制:损失函数达到最小

  • 在强学习机的组合中增加一个加权的弱学习机,是准确率提高,损失函数值减小
    AdaBoost优点:
  • 容易实施
  • 几乎没有参数需要调整
  • 不用担心过拟合

缺点:

  • 公式中的a是局部最优解,不能保证是最优解
  • 对噪声很敏感

二、Adaboost的误差界

通过上面的例子可知,Adaboost在学习的过程中不断减少训练误差e,直到各个弱分类器组合成最终分类器,那这个最终分类器的误差界到底是多少呢?

事实上,Adaboost 最终分类器的训练误差的上界为:

1 N i = 1 N I ( G ( x i ) y i ) 1 N i exp ( y i f ( x i ) ) = m Z m

下面,咱们来通过推导来证明下上述式子。

当G(xi)≠yi时,yi*f(xi)<0,因而exp(-yi*f(xi))≥1,因此前半部分得证。

关于后半部分,别忘了:

w m + 1 , i = w m i Z m exp ( α m y i G m ( x i ) ) Z m w m + 1 , i = w m i exp ( α m y i G m ( x i ) )

整个的推导过程如下:
1 N i exp ( y i f ( x i ) ) = 1 N i exp ( m = 1 M α m y i G m ( x i ) ) = w 1 i i exp ( m = 1 M α m y i G m ( x i ) ) = w 1 i m = 1 M exp ( α m y i G m ( x i ) ) = Z 1 i w 2 i m = 2 M exp ( α m y i G m ( x i ) ) = Z 1 Z 2 i w 3 i m = 3 M exp ( α m y i G m ( x i ) ) = Z 1 Z 2 Z M 1 i w M i exp ( α M y i G M ( x i ) ) = m = 1 M Z m

这个结果说明,可以在每一轮选取适当的Gm使得Zm最小,从而使训练误差下降最快。接着,咱们来继续求上述结果的上界。
对于二分类而言,有如下结果:
m = 1 M Z m = m = 1 M ( 2 e m ( 1 e m ) ) = m = 1 M ( 1 4 γ m 2 ) exp ( 2 m = 1 M γ m 2 ) γ m = 1 2 e m

继续证明下这个结论。
由之前Zm的定义式跟本节最开始得到的结论可知:
Z m = i = 1 N w m i exp ( α m y i G m ( x i ) ) = y i = G m ( x i ) w m i e α m + y i G m ( x i ) w m i e α m = ( 1 e m ) e α m + e m e α m = 2 e m ( 1 e m ) = 1 4 γ m 2

而这个不等式

m = 1 M ( 1 4 γ m 2 ) exp ( 2 m = 1 M γ m 2 )

可先由e^x和1-x的开根号,在点x的泰勒展开式推出。
值得一提的是,如果取γ1, γ2… 的最小值,记做γ(显然,γ≥γi>0,i=1,2,…m),则对于所有m,有:
1 N i = 1 N I ( G ( x i ) y i ) exp ( 2 M γ 2 )

这个结论表明,AdaBoost的训练误差是以指数速率下降的。另外,AdaBoost算法不需要事先知道下界γ,AdaBoost具有自适应性,它能适应弱分类器各自的训练误差率 。
最后,Adaboost 还有另外一种理解,即可以认为其模型是加法模型、损失函数为指数函数、学习算法为前向分步算法的二类分类学习方法,有机会再推导下,然后更新此文。而在此之前,有兴趣的可以参看《统计学习方法》第8.3节或其它相关资料。

猜你喜欢

转载自blog.csdn.net/sinat_30353259/article/details/81071505
今日推荐