线性回归(linear regression)的概率解释—使用极大似然估计推导线性回归问题

线性回归(linear regression)

什么是线性回归?

线性回归对一个或者多个自变量和因变量之间的关系进行建模的一种回归分析,线性回归模型应用于有监督的回归问题。
线性回归模型为: y ( i ) = Θ T × x ( i ) + ε ( i ) y^{(i)}=\Theta ^{T}\times x^{(i)}+\varepsilon ^{(i)}
其中 ϵ \epsilon 代表偏差项(error term)

关于 ϵ \epsilon 的假设?

若对一个问题建立线性回归模型进行求解,其 ϵ \epsilon 需满足以下两个假设:
1.独立的,即 ϵ \epsilon 之间互不影响,相互独立。
2.同分布,即 ϵ \epsilon 之间满足相同的分布(对于线性回归满足高斯分布,对于逻辑斯蒂回归满足伯努利分布)。

推导过程

假设 ϵ \epsilon 满足均值为0,标准差为 σ \sigma 的高斯分布;即 ε ( 0 , σ 2 ) \varepsilon \sim (0,\sigma ^{2}) 。则:

P ( ε ( i ) ) = 1 2 π σ e x p ( ( ϵ ( i ) ) 2 2 σ 2 ) P(\varepsilon ^{(i)})= \frac{1}{2\pi \sigma }exp(-\frac{(\epsilon ^{(i)})^{2}}{2\sigma ^{2}})

将模型代入得:

P ( y ( i ) x ( i ) , Θ ) = 1 2 π σ e x p ( ( y ( i ) Θ T x ( i ) ) 2 2 σ 2 ) P(y^{(i)}|x^{(i)},\Theta )= \frac{1}{2\pi \sigma }exp(-\frac{(y^{(i)}-\Theta ^{T}x^{(i)})^{2}}{2\sigma ^{2}})

所以,关于 Θ \Theta 的似然函数为:

L ( Θ ) = L ( Θ , x , y ) = P ( y x , Θ ) L(\Theta)=L(\Theta,x,y)=P(y|x,\Theta)

因为 Θ \Theta 满足独立同分布,所以:

L ( Θ ) = i = 1 m P ( y ( i ) x ( i ) , Θ ) = i = 1 m 1 2 π σ e x p ( ( y ( i ) Θ T x ( i ) ) 2 2 σ 2 ) L(\Theta)=\prod_{i=1}^{m}P(y^{(i)}|x^{(i)},\Theta)=\prod_{i=1}^{m} \frac{1}{2\pi \sigma }exp(-\frac{(y^{(i)}-\Theta ^{T}x^{(i)})^{2}}{2\sigma ^{2}})

使用极大似然估计即需要满足 max L ( Θ ) L(\Theta) ,同时为便于求解,我们将似然函数求对数转化为对数似然,即:

l o g L ( Θ ) = i = 1 m l o g 1 2 π σ e x p ( ( y ( i ) Θ T x ( i ) ) 2 2 σ 2 ) = m l o g 1 2 π σ + ( 1 σ 2 1 2 i = 1 m ( y ( i ) Θ T x ( i ) ) ) logL(\Theta )=\sum_{i=1}^{m}log \frac{1}{2\pi \sigma }exp(-\frac{(y^{(i)}-\Theta ^{T}x^{(i)})^{2}}{2\sigma ^{2}})=mlog\frac{1}{2\pi \sigma }+(-\frac{1}{ \sigma ^2}*\frac{1}{2}\sum_{i=1}^{m}(y^{(i)}-\Theta^{T}x^{(i)}))

去除常数项,并在等式两边添加负号,将求解目标函数最大值转换为求解目标函数最小值,得到下式:

m i n L ( ( Θ ) ) 1 2 i = 1 m ( y ( i ) Θ T x ( i ) ) 2 minL(-(\Theta ))\approx \frac{1}{2}\sum_{i=1}^{m}(y^{(i)}-\Theta ^{T}x^{(i)})^{2}

因此,我们使用极大似然估计得到了最小二乘法中的代价函数。

发布了20 篇原创文章 · 获赞 10 · 访问量 1454

猜你喜欢

转载自blog.csdn.net/Jerry_Chang31/article/details/103758567