机器学习导论(张志华):EM收敛性原理

前言

这个笔记是北大那位老师课程的学习笔记,讲的概念浅显易懂,非常有利于我们掌握基本的概念,从而掌握相关的技术

basic concepts

EM 算法可以分为两步,一步是E求均值,另外一步是M,极大化。
解决最优化问题的常规办法之一是:数值优化办法中的迭代方法。
min f(x)
f’(x)=0;
x*=x*+f(x*);
max log(p(x|theta))
将一个复杂的优化问题,转换成一个对更简单的问题优化的过程。

猜你喜欢

转载自blog.csdn.net/lvsehaiyang1993/article/details/83992923