隐马尔科夫模型(HMM)的学习笔记

       被隐马尔科夫模型整了一个星期,刚发现这个视频讲的不错,https://www.bilibili.com/video/av32471608/?p=3,B站上 :机器学习-白板推导系列-马尔科夫模型HMM(Hidden Markov Model)。

1.一个模型,\lambda =\left ( \pi ,A,B \right ) 

   \pi:代表的是初始概率;

   A:代表的是转移矩阵,a_{i j}=P(i_{t+1}=q_{j}|i_{t}=q_{i});

   B:代表的是发射矩阵,b_{j}(k)=p(o_{t}=v_{k}|i_{t}=q_{i});

2.两个假设:

   齐次马尔科夫:即任意时刻的隐藏状态只依赖于它的前一个隐藏状态,

   观察独立:即任意时刻的观察状态只仅仅依赖于当前时刻的隐藏状态,

3.三个问题

    Evalution :given \lambda,求解p(o|\lambda ) ,用“向前向后算法解决”;

    learning : \lambda =arg max p(o|\lambda )  ,估计模型参数\lambda的参数,使该模型下测试序列的条件概率p(o|\lambda )最大。要用到基于EM算法的鲍姆-韦尔奇算法。

    decoding: 给定模型\lambda,和观察序列,求 给定观测序列条件下,最可能出现的对应的状态序列,这个问题的求解用到动态维特比算法。

猜你喜欢

转载自blog.csdn.net/fishllife/article/details/83415056