HMM学习

问题类型:

1. 对于一个观察序列匹配最可能的系统——评估,使用前向算法(forward algorithm)解决;
2. 对于已生成的一个观察序列,确定最可能的隐藏状态序列——解码,使用Viterbi 算法(Viterbi algorithm)解决;
3. 对于已生成的观察序列,决定最可能的模型参数——学习,使用前向-后向算法(forward-backward algorithm)解决。

一个隐马尔科夫模型是一个三元组(pi, A, B)。
  Triple_PI:初始化概率向量;
  Triple_A:状态转移矩阵;Triple_A_2说的是隐藏状态的转移。
  Triple_B:混淆矩阵;Triple_B_2

weather-b-matrix混淆矩阵,由隐藏推出观察。本质到现象。

1.

局部概率:针对观察概率

  alphat ( j )= Pr( 观察状态 | 隐藏状态j ) x Pr(t时刻所有指向j状态的路径)

故我们所计算的这个概率等于相应的观察概率(亦即,t+1时在状态j所观察到的符号的概率)与该时刻到达此状态的概率总和——这来自于上一步每一个局部概率的计算结果与相应的状态转移概率乘积后再相加——的乘积。

此状态的概率不应该是隐藏状态吗?那就不应该是局部概率乘以状态转移概率。应该是上一步的隐藏状态再乘以转移权值。

猜你喜欢

转载自blog.csdn.net/yagreenhand/article/details/85701534
HMM