理解赤池信息量(AIC)

在学逐步回归的过程中,遇到了AIC,只知道这玩意儿越小,模型拟合力更好。查了一下:

AIC是由日本统计学家赤池弘次创立和发展的,该准则是建立在熵的基础上的。

一般情况下,公式为

AIC=(2k-2L)/n

这公式我们可以看到,n是样本量,样本量越大该值越小,跟我们平时说的样本量越大,模型越有说服力

k是拟合模型中参数的数量,可以知道参数越少,AIC越小

L是对数似然值,L越大模型说明越精确

具体的公式看起来比较复杂一些,这个公式相对简洁一些,更好理解。

总的来说,模型参数少不仅对计算代价有利,而且拟合相对来说更有解释力;样本量大,感觉越贴近真实情况,而且AIC还低;似然函数也是,越大不仅仅说明模型精确,而且AIC越小。

猜你喜欢

转载自blog.csdn.net/zhou_438/article/details/84846369