李航·统计学习方法笔记·第6章 logistic regression与最大熵模型(2)·最大熵模型

版权声明:本文为博主原创文章,如需转载,请注明出处:http://blog.csdn.net/tina_ttl https://blog.csdn.net/tina_ttl/article/details/53542004

李航·统计学习方法笔记·第6章 logistic regression与最大熵模型(2)·最大熵模型

标签(空格分隔): 机器学习教程·李航统计学习方法


注意,这里有一个前提,这里讨论的分类模型都是概率模型!
最大熵模型是另外一种机器学习模型,与逻辑斯蒂回归模型没有什么关系,只不过被安排在了一个章节讲解


最大熵原理只是一个学习的准则,利用这个准则可以从一堆概率模型中选择一个最优的

1 最大熵原理

最大熵模型是根据最大熵原理推导得到的,所以,为了推导最大熵模型,必须首先了解最大熵原理!

1.1 最大熵原理的基本内容

  • 最大熵原理认为:在所有可能的概率模型中,熵最大的模型为最好的概率模型(下图中的阶段2)
    image_1b3givefe1sdq1hbv7s01fqm1gsum.png-27.6kB
  • 这里的“所有可能的概率模型”是一个概率模型的集合,是在所有的概率模型中,根据一定的约束条件选取出来的(上图中的阶段1)

    不知道能否这样理解???
    比如,对应逻辑斯蒂回归模型中,它使用的用来表示分类器的模型其实就是利用逻辑斯蒂分布构造的一个概率分布,这个概率分布的形式是一定的,只不过参数待求,那么,可以将这些形式一定但参数未知的概率分布看着是“所有可能的概率模型”的集合,在这个集合中,找到熵最大的那个模型,也就实现了参数的求解

  • 综上,最大熵原理可以表述为:在满足约束条件的概率模型集合中选取熵最大的模型

    那么,如何计算概率模型的熵呢? 先讨论离散情况

    对于某一个随机变量X,它的概率分布为P(X)(即PMF或者说是分布律),它的熵定义为

    H(P)=i=1nP(xi)logP(xi)

    它表述的是随机变量X取得所有可能值 xi ( i=1,,n )带来的自信息的数学期望,即表征了该信号带来的信息量!


    上面的熵的取值范围是什么呢?

    0H(P)logn

    具体推导过程见《最优化理论·拉格朗日Lagrange对偶性的一个实例》

  • 所以,最大熵原理的具体内容或者说是实际使用方法为:

    • 根据已有的信息(约束条件),选择适当的概率模型
    • 对于那些不确定的部分,认为它们是等可能的,也就实现了最大熵的目的
    • 那这个方法如何使用呢?下面给出一个实际的例子:
      image_1b27b8ghv143r1lpi14d81ui1s2e9.png-10.8kB
      • 首先,根据已知条件,可以得到下面的约束:
        image_1b27bc6i51cfl1rlrbdt15n3ekd1g.png-3.4kB
        除此信息外,不再有其他可利用信息,那么,根据最大熵原理(不确定的信息认为其为等可能),则有
        image_1b27bb9js1l0a3r61f19mi81blj13.png-3.7kB
      • 如果接下来又添加了一个可用信息
        image_1b27bdvmus7tg681qrj1td9iui1t.png-5.2kB
        则此时,再根据最大熵原理,可以得到
        image_1b27bel58ka71ca61b6ub19npc2a.png-4.7kB

1.2 最大熵原理的几何意义

  • 下图是所有可能的概率模型空间(用一个2单纯形表示),所有可能的概率空间位于三角形内部
    image_1b3epdhcb1na99d21d3s1hgg1b479.png-10.4kB
  • 现在加入了两个约束条件,此时的概率空间变小了,变成了图中的5条之间的某个交集围成的区间(由于这里并没有给出两个约束的具体内容,所以这个区间还不能确定,可能是下图中的四个子区间的任何一个)
    image_1b3h4egfmt52r0r1tdf1jqs1isc13.png-25.9kB

2 最大熵模型

2.1 到底应该如何表示分类模型?

  • 对于分类问题,它的分类模型可以表示条件概率分布: P(Y|X)
  • 例如,对于一个三分类的分类问题,这个分类模型其实就是一个离散型的条件概率分布,每个类别 Y 的概率取值都有一个模型 P(Y=i|X) ,它不是一个具体的取值,而是一个与输入的样本 X=x x 为一个特征向量)相关的一个函数:可以认为,该表就是要求解的分类器!!!
可能取值 类别1 类别2 类别3
分布律 P(Y=1|X) P(Y=2|X) P(Y=3|X)
通俗理解 函数 p1(x) 函数函数 p2(x) 函数 p3(x)
  • 再以逻辑斯蒂回归问题的模型 P(Y|X) 为例
可能取值 Y=1 Y=0
概率 P(Y=1|X)=exp(wx)1+exp(wx) P(Y=0|X)=11+exp(wx)
通俗理解 函数 p1(x) x 的函数 函数函数 p2(x) x 的函数

2.2 最大熵模型的约束条件

2.2.1 最大熵模型的一个总述

利用最大熵原理去求解上面所述的条件概率(应用于分类问题中),得到的分类模型就是最大熵模型

那么,应该如何做呢?

  • 给定一个训练数据集

    T={(x1,y1),(x2,y2),,(xN,yN)}

    其中:
    N 为训练集中样本个数;
    xiX (输入空间)为输入,它其实是一个向量,代表的是输入样本的特征;
    yiY (输出空间)为输出,代表输入样本对应的标签;
    image_1b3epn2scepnvvn15jbjcraja13.png-8.8kB

  • 我们的目的:利用最大熵原理,选择一个最好的分类模型;从而,对于任何给定的样本 xX ,都可以以概率 P(y|x) 输出 yY

    例如两分类问题:得到的分类器P(Y|X),可以使得对于任何给定的样本 xX ,都可以计算得到 P(y=1|x) P(y=0|x)

  • 那么,到底如何求解模型 P(Y|X) 呢?根据最大熵原理,应该优先保证模型满足已知的约束条件,那么,这样的约束条件到底是什么呢?这个需要自己构造,具体的构造思路如下:

    image_1b3h7kjju4e21p6nqdilbh1ed19.png-41.4kB

    • 首先,我们构造一个关于样本 x 和标签 y 的函数 f(x,y) ,它是一个随机变量函数,称为特征函数(feature function),该函数可以为任意形式,只要是关于 xy 的一个随机函数即可

    • 利用训练数据集 T ,可以计算得到 (X,Y) 的经验分布 P˜(X,Y) ,那么, f(x,y) 关于经验分布的数学期望 EP˜(f) 就可以计算得到了;

    • 假设分类模型的实际分布为 P(X|Y) ,它是待求量,在它已经的情况下,可以计算得到 f(x,y) 关于模型真实分布的数学期望 Ep(f)
      如果求解的真实模型的估计值 P(X|Y) 是正确的,那么,应该满足
      EP˜(f)=Ep(f)
    • 那么,如果定义多个这样的特征函数,就可以得到多个约束了

    • 具体公式:
      EP˜(f)=x,yP˜(X,Y)f(x,y)EP(f)=x,yP(X,Y)f(x,y)=x,yP(Y|X)P˜(X)f(x,y)


      x,yP˜(X,Y)f(x,y)=x,yP(Y|X)P˜(X)f(x,y)

      其中的 P(Y|X) 就是待求的模型

2.2.2 特征函数·feature function

这里对输入 x 和输出 y 定义一个特征函数 f(x,y) ,它用来描述输入 x 和输出 y 之间的某一种关系/事实,它的形式任意,这里以下式为例:

f(x,y)={10xy/

关于特征函数这个概念,真的很让人困惑!下面给出一个示例

image_1b27lr3m7ckp197k1r9gvje1rni9.png-208.6kB

  • 例子中定义了两个特征函数: f1(x,y) f2(x,y) ,它描述了输入 x 和输出 y 之间的某一种关系
  • 对于任何一个训练样本,都可以得到每个特征函数对应的一个取值
    • 为了清晰,这里再举一个例子,如下如所示的数据集
      image_1b3h7vg2o1hu9jm419pe1het187km.png-24.7kB
    • 定义一个特征函数
      f(x,y)={1,x=Cloudyy=Outdoor0
    • 那么,对于该数据集中的每一个样本,都可以计算得到该特征函数对应的一个取值,具体结果如下图最后一列所示
      image_1b3h804cr10suc3lenamf1d7313.png-37.9kB

2.2.3 如何计算经验分布

根据前面的约束条件

x,yP˜(X,Y)f(x,y)=x,yP(Y|X)P˜(X)f(x,y)

P˜(X,Y) 为经验分布, P˜(X) 为边缘经验分布,可以按照下式计算
image_1b27glh7j3jll0j174hietlg99.png-11.4kB

2.3 最大熵模型的具体内容

  • 前面推导了最大熵模型的约束条件,也就是说,要求解的模型一定属于满足以下条件的集合
    image_1b3h8bc7h14dl119u18p7buo1iti1g.png-8.3kB

  • 那么,用什么去衡量求解的模型的熵呢?利用条件熵,它的定义如下:
    image_1b3h8d6t4pkim3n1aapu811ebi1t.png-8.6kB

  • 最后,最大熵模型就可以表述为:

    在所有满足约束条件的集合中,找到条件熵 H(P) 最大的那个集合,即:
    image_1b3h8fqlg8h684f86n1rqn1aj92a.png-20.3kB
    注意到:除了基于特征函数的约束外,还有一个条件概率之和为1的约束条件
    这个优化问题可以转换为最小化问题:
    image_1b3h8hr9ktjv1o1ejmb16n61jne2n.png-21.1kB

可见,其实最大熵模型就是一个有约束的优化问题

3 最大熵模型的学习

最大熵模型的学习或者称是最大熵模型的求解,其实就是一个有约束优化问题,并且,约束为等式约束

3.1 最大熵模型的求解

这里主要利用Lagrange对偶性原理求解,具体内容可以再参考另外一个笔记《最优化理论·拉格朗日Lagrange对偶性的一个实例》

  • 最大熵模型如下:
    image_1b3h8q97d1q2gd6u1sdrlai17ha34.png-20.8kB

  • 构造Lagrange函数
    image_1b3h8vfqm15dc1kpgjhr1ubj1vas3h.png-14.8kB

    image_1b3h911s715mv7qb7dsdr4b963u.png-26.8kB

  • 从而,得到原始问题的等价形式
    image_1b3h91mqofmi10ho16u5dn61r0s4b.png-4.5kB

  • 继而,得到原始问题的对偶问题
    image_1b3h92mqtcecov51nk718rs1ane4o.png-4.4kB

  • 由于这里的Lagrange函数是凸函数,所以原问题和对偶问题的最优解相同,那么,接下来只需要求解对偶问题的最优解就可以了

    • 先求内部的最小化问题
      minPL(P,w)

      • 目标函数对 p(y|x) 求梯度
        image_1b3h9cfjl10s4ffkn08pm1v0055.png-29.5kB
      • 并令梯度为0,可以求得最优的 p(y|x) 。它是 w 的函数
        image_1b3ha3ppcsg91qav19kukk6hra5v.png-9.6kB
      • 将该最优解代回到对偶问题,再求最外的关于 w 的最大化问题
        image_1b3ha58s2137igs61jir17tc8or6c.png-3kB
      • 求解得到最优的 w
        image_1b3ha5p2f1q2onnn160dh13iad6p.png-4.8kB
      • 最后, Pw 可求,也就是最优的image_1b3ha7caa2kgbts1rdfjm11nih76.png-4.2kB
  • 上面过程的图解
    image_1b3f3lubb1up9vdtg5t18ed1r2i3h.png-189.2kB


以上是利用Lagrange对偶性推导,也可以直接利用KKT条件的结论,因为只有等式约束,所以,也就是可以直接使用Lagrange乘子法


3.2 例子

过程比较晦涩!直接上例子

求解下例中的最大熵模型
image_1b3etoppe44r1ecd14slmoidim34.png-24.6kB
已知的约束条件为 P(y1)+P(y3)=310

可能取值 A B C D E
可能取值符号表示 y1 y2 y3 y4 y5
概率·待求量 P(y1) P(y2) P(y3) P(y4) P(y5)
  • 构造优化问题
    image_1b3f1s0o41t4ll5a82m101unfn9.png-22.5kB
    注意:第一个约束条件来自于问题的已知约束,即经验分布和待求分布都需要满足这个条件
  • 构造Lagrange函数
    image_1b3f1uri5105v1a061ufukub1i01m.png-16.9kB
  • 从而可以构造原问题的对偶问题
    image_1b3f20mf41e15nut1kcv19lhftp13.png-4.3kB
    • 求解关 P=(P(y1),P(y2),P(y3),P(y4),P(y5)) 的最小化问题
      image_1b3f22c195jqeau19o161mm961g.png-63.4kB
    • 然后,再将上面得到的结果代入到L(P,w)中
      image_1b3f242n4dukpnc5pi1fucvjm1t.png-9.9kB
      求解最大化问题
    • 最后,再求解上面关于lagrange乘子 w1 w2 的最小化问题,可以得到
      image_1b3f260qbt4bfvf1sm1r7hfm52a.png-5.4kB
    • 在将上面的结果代回,可以求解得到P
      image_1b3f26oier0f1b64e301a68hbi2n.png-11.9kB

4 最大熵模型学习的等价形式

对偶函数极大化的等价问题:最大熵模型的极大似然估计

具体内容还不是很理解,直接记住结论吧!

  • 最大熵模型的学习过程:

    • 经过推导,得到最大熵模型
      image_1b3hdb0oo1orm5rj1gvt1ccm1jmcb8.png-9.5kB
    • 最后的优化问题转化为将最大熵模型代入到lagrange函数得到的函数的最大化问题
      image_1b3hcco3j6koai6lb5mo77k07j.png-3kB
      其中:1为将上面得到的最大熵模型代入到Lagrange函数(即对偶函数)得到的结果,有12
  • 如果利用极大似然估计呢?

    • 计算最大熵模型的条件似然函数:
      12
    • 可以证明,对偶函数和对数似然函数是相等的image_1b3hcp4shic955e12nuua2j4pae.png-3.8kB
  • 最大化“最大熵模型的条件似然函数”也就是最大化“对偶函数”
  • 所以,最大熵的学习过程可以理解为“最大化最大熵模型的对数似然函数”,其中,最大熵模型如下
    image_1b3hcteh1jnmmuo17491kh11gdbar.png-23.7kB

5 逻辑斯蒂回归模型和最大熵模型

逻辑斯蒂回归模型和最大熵模型最终其实都是在进行一个似然函数的最大化问题,也就是一个无约束的优化问题,可以利用改进的迭代尺度方法、牛顿法、拟牛顿法、梯度下降法等方法求解。


参考文献

[1] https://www.zhihu.com/question/24094554
[2] http://blog.csdn.net/itplus/article/details/26550201
[3] (有待实现)http://www.hankcs.com/ml/the-logistic-regression-and-the-maximum-entropy-model.html
[4] 李航·统计机器学习·6.2


猜你喜欢

转载自blog.csdn.net/tina_ttl/article/details/53542004