《机器学习基石》第9节课学习笔记

第9节课  Linear Regression

  • 本节课本学习了机器学习最常见的一种算法:Linear Regression(线性回归)。这是学习《机器学习基石》中学到的第二种算法,第一种是PLA算法。所以本节课特别重要,希望通过本节课学习对线性回归有自己初步的了解。

一、线性回归问题

在之前的Linear Classification课程中,讲了信用卡发放的例子,利用机器学习来决定是否给用户发放信用卡。本节课仍然引入信用卡的例子,来解决给用户发放信用卡额度的问题,这就是一个线性回归(Linear Regression)问题。

令用户特征集为d维的X,加上常数项,维度为d+1与权重w的线性组合即为Hypothesis,记为h(x)。线性回归的预测函数取值在整个实数空间,这跟线性分类不同。

根据上图,在一维或者多维空间里,线性回归的目标是找到一条直线(对应一维)、一个平面(对应二维)或者更高维的超平面,使样本集中的点更接近它,也就是残留误差Residuals最小化。

一般最常用的错误测量方式是基于最小二乘法,其目标是计算误差的最小平方和对应的权重w,即上节课介绍的squared error:

二、线性回归算法

样本数据误差Ein是权重w的函数,因为X和y都是已知的。我们的目标就是找出合适的w,使Ein能够最小。那么如何计算呢?

首先,运用矩阵转换的思想,将Ein计算转换为矩阵的形式。

然后,对于此类线性回归问题,Ein(w)一般是个凸函数。凸函数的话,我们只要找到一阶导数等于零的位置,就找到了最优解。那么,我们将Ew对每个wi,i=0,1,⋯,d求偏导,偏导为零的wi,即为最优化的权重值分布。

根据梯度的思想,对Ew进行矩阵话求偏导处理:

令偏导为零,最终可以计算出权重向量w为:

三、泛化问题

现在,可能有这样一个疑问,就是这种求解权重向量的方法是机器学习吗?或者说这种方法满足我们之前推导VC Bound,即是否泛化能力强Ein≈Eout?

有两种观点:1、这不属于机器学习范畴。因为这种closed-form解的形式跟一般的机器学习算法不一样,而且在计算最小化误差的过程中没有用到迭代。2、这属于机器学习范畴。因为从结果上看,Ein和Eout都实现了最小化,而且实际上在计算逆矩阵的过程中,也用到了迭代。

其实,只从结果来看,这种方法的确实现了机器学习的目的。下面通过介绍一种更简单的方法,证明linear regression问题是可以通过线下最小二乘法方法计算得到好的Ein和Eout的。

首先,我们根据平均误差的思想,把Ein(wLIN)写成如图的形式,经过变换得到: 

下面从几何图形的角度来介绍帽子矩阵H的物理意义。

图中,y是N维空间的一个向量,粉色区域表示输入矩阵X乘以不同权值向量w所构成的空间,根据所有w的取值,预测输出都被限定在粉色的空间中。向量y^就是粉色空间中的一个向量,代表预测的一种。y是实际样本数据输出值。

机器学习的目的是在粉色空间中找到一个y^,使它最接近真实的y,那么我们只要将y在粉色空间上作垂直投影即可,投影得到的y^即为在粉色空间内最接近y的向量。这样即使平均误差E¯最小。

从图中可以看出,y^是y的投影,已知y^=Hy,那么H表示的就是将y投影到y^的一种操作。图中绿色的箭头y-y^是向量y与y^相减,y−y^垂直于粉色区域。已知(I−H)y=y−y^那么I-H表示的就是将y投影到y-y^即垂直于粉色区域的一种操作。这样的话,我们就赋予了H和I-H不同但又有联系的物理意义。

这里trace(I-H)称为I-H的迹,值为N-(d+1)。这条性质很重要,一个矩阵的 trace等于该矩阵的所有特征值(Eigenvalues)之和。下面给出简单证明:

介绍下该I-H这种转换的物理意义:原来有一个有N个自由度的向量y,投影到一个有d+1维的空间x(代表一列的自由度,即单一输入样本的参数,如图中粉色区域),而余数剩余的自由度最大只有N-(d+1)种。

在存在noise的情况下,上图变为:

 

图中,粉色空间的红色箭头是目标函数f(x),虚线箭头是noise,可见,真实样本输出y由f(x)和noise相加得到。由上面推导,已知向量y经过I-H转换为y−y^,而noise与y是线性变换关系,那么根据线性函数知识,我们推导出noise经过I-H也能转换为y−y^。则对于样本平均误差,有下列推导成立:

即:

同样,对EoutEout有如下结论:

 

我们把E¯in与E¯out画出来,得到学习曲线:

当N足够大时,E¯in与E¯out逐渐接近,满足E¯in≈E¯out,且数值保持在noise level。这就类似VC理论,证明了当N足够大的时候,这种线性最小二乘法是可以进行机器学习的,算法有效!

四、Linear Regression方法解决Linear Classification问题

之前介绍的Linear Classification问题使用的Error Measure方法用的是0/1 error,那么Linear Regression的squared error是否能够应用到Linear Classification问题?

下图展示了两种错误的关系,一般情况下,squared error曲线在0/1 error曲线之上。即

根据之前的VC理论,Eout的上界满足:

 

从图中可以看出,

代替

,Eout仍然有上界,只不过是上界变得宽松了。也就是说用线性回归方法仍然可以解决线性分类问题,效果不会太差。二元分类问题得到了一个更宽松的上界,但是也是一种更有效率的求解方式。

猜你喜欢

转载自www.cnblogs.com/lxx0/p/lxx_learning-notes-9.html