似然函数,最大似然估计 简单理解



 

摘抄自维基百科:

https://zh.wikipedia.org/wiki/%E4%BC%BC%E7%84%B6%E5%87%BD%E6%95%B0

https://zh.wikipedia.org/wiki/%E6%9C%80%E5%A4%A7%E4%BC%BC%E7%84%B6%E4%BC%B0%E8%AE%A1

 

似然函数(Likelihood function、Likelihood)

 

  在数理统计学中,似然函数是一种关于统计模型中的参数函数,表示模型参数中的似然性。似然函数在统计推断中有重大作用,如在最大似然估计费雪信息之中的应用等等。“似然性”与“或然性”或“概率”意思相近,都是指某种事件发生的可能性,但是在统计学中,“似然性”和“或然性”或“概率”又有明确的区分。概率用于在已知一些参数的情况下,预测接下来的观测所得到的结果,而似然性则是用于在已知某些观测所得到的结果时,对有关事物的性质的参数进行估计。

  在这种意义上,似然函数可以理解为条件概率的逆反。在已知某个参数B时,事件A会发生的概率写作:

P(A\mid B)={\frac  {P(A,B)}{P(B)}}\!

  利用贝叶斯定理

P(B\mid A)={\frac  {P(A\mid B)\;P(B)}{P(A)}}\!

  因此,我们可以反过来构造表示似然性的方法:已知有事件A发生,运用似然函数{\mathbb  {L}}(B\mid A),我们估计参数B的可能性。形式上,似然函数也是一种条件概率函数,但我们关注的变量改变了:

b\mapsto P(A\mid B=b)\!

  注意到这里并不要求似然函数满足归一性:\sum _{{b\in {\mathcal  {B}}}}P(A\mid B=b)=1。一个似然函数乘以一个正的常数之后仍然是似然函数。对所有\alpha >0,都可以有似然函数:

L(b\mid A)=\alpha \;P(A\mid B=b)\!

 

最大似然估计(maximum likelihood estimation ,MLE

  给定一个概率分布D,已知其概率密度函数(连续分布)或概率质量函数(离散分布)为f_D,以及一个分布参数\theta,我们可以从这个分布中抽出一个具有n个值的采样\mathbb{P}(x_1,x_2,\dots,x_n) = f_D(x_1,\dots,x_n \mid \theta)

但是,我们可能不知道\theta的值,尽管我们知道这些采样数据来自于分布D。那么我们如何才能估计出\theta呢?一个自然的想法是从这个分布中抽出一个具有n个值的采样X_1, X_2, ..., X_n,然后用这些采样数据来估计\theta.

一旦我们获得X_1, X_2,\ldots, X_n,我们就能求得一个关于\theta的估计。最大似然估计会寻找关于\theta的最可能的值(即,在所有可能的\theta取值中,寻找一个值使这个采样的“可能性”最大化)。这种方法正好同一些其他的估计方法不同,如\theta非偏估计,非偏估计未必会输出一个最可能的值,而是会输出一个既不高估也不低估的\theta值。

要在数学上实现最大似然估计法,我们首先要定义似然函数:

\mbox{lik}(\theta) = f_D(x_1,\dots,x_n \mid \theta)

并且在\theta的所有取值上通过令一阶导数等于零,使这个函数取到最大值。这个使可能性最大的\widehat{\theta}值即称为\theta最大似然估计

注意

  • 这里的似然函数是指x_1,x_2,\ldots,x_n不变时,关于\theta的一个函数。
  • 最大似然估计函数不一定是惟一的,甚至不一定存在。

 

 

----------------------------------------

另外,可以看这篇文章,有比较详细的例子介绍:

深入浅出最大似然估计(Maximum Likelihood Estimation)




转载:https://www.cnblogs.com/hejunlin1992/p/7976119.html

猜你喜欢

转载自blog.csdn.net/qq_24753293/article/details/79890709