简介
最大似然估计法(Maximum Likelihood Estimation, MLE)和贝叶斯估计法(Bayesian Estimation)是用来估计统计模型中未知参数的两种常用方法。
MLE的基本思想是在已知观测数据的情况下,找到使似然函数取最大值的参数值,即寻找最可能产生观测数据的参数值。似然函数是一个概率函数,描述了在给定一组参数值的情况下,观测数据发生的可能性。一旦似然函数被最大化,最大似然估计的参数值就是未知参数的估计值。
而贝叶斯估计法则是先给未知参数一个先验概率分布,它表示观测数据之前对参数的信念。然后将先验分布与似然函数相结合,得到参数的后验概率分布,它表示观测数据之后对参数的更新信念。后验概率分布可以用来估计参数,也可以用来做预测和量化不确定性。
区别与联系
这两种方法的相似之处在于它们都旨在估计统计模型中的参数,并且都可以用于预测和量化不确定性。然而,它们的主要区别在于它们如何处理不确定性。MLE假定参数估计是固定的和确定的,而贝叶斯估计法允许对可能的参数值进行分布估计,考虑到估计中的不确定性。因此,贝叶斯估计法通常被认为更加灵活和稳健,特别是在处理复杂模型或小数据集时。
用公式表示:
最大似然估计法:
θ ^ M L E = argmax θ L ( θ ∣ x ) \hat{\theta}_{MLE} = \underset{\theta}{\operatorname{argmax}} \ L(\theta | x) θ^MLE=θargmax L(θ∣x)
其中, θ ^ M L E \hat{\theta}_{MLE} θ^MLE 表示未知参数的最大似然估计值, L ( θ ∣ x ) L(\theta | x) L(θ∣x) 表示在给定参数 θ \theta θ 的情况下,观测数据 x x x 发生的似然函数。
贝叶斯估计法:
P ( θ ∣ x ) = P ( x ∣ θ ) P ( θ ) P ( x ) P(\theta | x) = \frac{P(x | \theta) P(\theta)}{P(x)} P(θ∣x)=P(x)P(x∣θ)P(θ)
其中, P ( θ ∣ x ) P(\theta | x) P(θ∣x) 表示在给定观测数据 x x x 的情况下,参数 θ \theta θ 的后验概率分布, P ( x ∣ θ ) P(x | \theta) P(x∣θ) 表示在给定参数 θ \theta θ 的情况下,观测数据 x x x 的似然函数, P ( θ ) P(\theta) P(θ) 表示参数 θ \theta θ 的先验概率分布, P ( x ) P(x) P(x) 表示观测数据的边际概率分布。
相似的结果
它们的求解方法和基本思想有很大的不同,但在某些情况下,它们可以得到相似的结果。
一种情况是当贝叶斯估计法的先验分布与最大似然估计法得到的后验分布相同或者趋近于相同的时候,它们的结果会趋于一致。这是因为在这种情况下,贝叶斯估计法的先验分布不会对后验分布产生太大的影响,而后验分布就可以近似于最大似然估计法得到的分布。
另外一种情况是当数据量非常大的时候,最大似然估计法的结果会趋近于贝叶斯估计法的后验分布。这是因为当数据量非常大时,数据的影响会比先验分布的影响更加显著,因此贝叶斯估计法的后验分布会趋于最大似然估计法得到的分布。
需要注意的是,最大似然估计法和贝叶斯估计法在求解时的假设和先验知识不同,因此它们在不同的场景下会得到不同的结果。