[DataAnalysis]机器学习算法——线性模型(逻辑回归+LDA)

一、基本形式

f(x)=w_1x_1+w_2x_2+...w_dx_d+b

二、线性回归

给定数据集D={(x_1,y_1),(x_2,y_2),...(x_m,y_m)},线性回归即试图学得一个线性模型以尽可能准确地预测实值输出标记。

1、模型

f(x_i)=wx_i+b

2、参数估计方法

(w^*,b*)=argmin\sum (f(x_i)-y_i)^2,通过偏导等于0得到最小二乘估计

3、变形

(1)对数线性回归

lny=w^{T}x

(2)广义线性模型

y=g^{-1}(w^Tx+b),其中g(x)是单调可微函数

三、对数几率回归

1、单位跃阶函数和对数几率函数

单位阶跃函数:

y=\left\{\begin{matrix} 0, &z<0 \\ 0.5,&z=0 \\ 1,&z>0 \end{matrix}\right.

2、对数几率函数

y=\frac{1}{1+e^{-z}}

注:逻辑回归的原理就是把线性回归得到的拟合值投射到对数几率函数上,从而保证结果在0~1之间

y=\frac{1}{1+e^{w^Tx+b}}

ln\frac{y}{1-y}=w^Tx+b

其中逻辑回归的参数估计方法详见博文的逻辑回归模型相关内容。

四、线性判别分析(Linear Discriminant Analysis,LDA),也被称为fisher判别分析

1、思想:给定训练样例集,设法将样例投影到一条直线上。使得同类样例的投影点尽可能接近、异类样例的投影点尽可能远离。在对新样本进行分类时,将其投影到同样的直线上,再根据投影点的位置确定新样本的类别。

2、数学推导:

给定数据集D={(x_i,y_i),y_i\in (0,1)}。令X_i,\mu _i,\Sigma _i分别表示第i类示例的集合、均值向量和协方差矩阵。如果将所有点投影在直线w上,则两类样本的中心在直线上的投影分别为w^T\mu_0w^T\mu_1;如果将所有点投影在直线上,那么两类样本的协方差分为是w^T\Sigma _0ww^T\Sigma _1w。由于直线是一维空间,从而w^T\mu_0w^T\mu_1w^T\Sigma _0ww^T\Sigma _1w都是实数。

w^T\Sigma _0w+w^T\Sigma _1w尽可能小,||w^T\mu_0-w^T\mu_1||^2尽可能大。

3、拓展方向:

(1)将LDA推广到多分类任务

(2)将样本投影到d'维空间而不是一条直线,则d'通常远小于数据原有的属性数d。于是可通过这个投影来减小样本点的维数,LDA可作为一种典型的监督降维技术。​​​​​​​

猜你喜欢

转载自blog.csdn.net/TOMOCAT/article/details/82081801
今日推荐