EM算法的简单解释

食堂的大师傅炒了一份菜,要等分成两份给两个人吃——显然没有必要拿来天平一点一点的精确的去称分量,最简单的办法是先随意的把菜分到两个碗中,然后观察是否一样多,把比较多的那一份取出一点放到另一个碗中,这个过程一直迭代地执行下去,直到大家看不出两个碗所容纳的菜有什么分量上的不同为止


EM算法就是这样,假设我们估计知道A和B两个参数,在开始状态下二者都是未知的,并且知道了A的信息就可以得到B的信息,反过来知道了B也就得到了A。可以考虑首先赋予A某种初值,以此得到B的估计值,然后从B的当前值出发,重新估计A的取值,这个过程一直持续到收敛为止。


在概率和统计学中,一个随机变量的期望值是变量的输出值乘以其机率的总和,换句话说,期望值是该变量输出值的平均数

 如果X是在概率空间(Ω, P)中的一个随机变量,那么它的期望值E[X]的定义是

E[X] = ∫ΩX dP

 离散:E X =

猜你喜欢

转载自blog.csdn.net/redfivehit/article/details/78286794