九 EM+GMM算法的学习

EM+GMM算法的学习

1 意义

  • EM算法为存在隐变量的模型提供了一种学习策略
  • EM可分为:
    • E步:确定模型似然函数的下界
    • M步:优化下界

2 推导

  • 如果存在样本 x 1 , x 2 , x 3 , . . . , x n
  • 其中 x i 的隐变量为类别 z i
  • z i 服从某一分布 Q i ( z i ) , z i Q i ( z i ) = 1
  • 模型以 p ( x i , θ ) 代表样本出现的概率,则似然函数为:
    • l ( θ ) = i = 1 n l o g p ( x i , θ )
    • θ 为模型参数
    • 当隐变量不存时,可以利用梯度上升算法直接对模型参数进行学习,当隐变量存在时,就不能利用这种方法了

l ( θ ) = i = 1 n l o g z i Q i ( z i ) p ( x i , z i ; θ ) Q i ( z i )
i = 1 n z i Q i ( z i ) l o g p ( x i , z i ; θ ) Q i ( z i )

p ( x i , z i ; θ ) Q i ( z i ) = c 时不等式等号成立
这里写图片描述
这里写图片描述

3 利用EM求解GMM参数

这里写图片描述

  • 然后分别对不同参数进行求导,等于零构建方程,从而计算新一轮的参数
  • μ 的求解:
    这里写图片描述

  • ϕ 的求解:
    这里写图片描述

  • ϑ 2 的求解:
    这里写图片描述

4 EM的收敛性

这里写图片描述

猜你喜欢

转载自blog.csdn.net/qq_35282560/article/details/80893684
今日推荐