Logistic回归模型 (二)

上一篇基本是东拼西凑的,(根本原因是我自己没吃透Logistic回归)

今天再来谈谈吧,首先我就不对Logistic回归进行定义的解释的。但是需要强调的一点就是Logistic回归的功能。

我们必须要知道它是用来干啥的,上一篇也有提到它就是用来搞二分类使的,就像咱们计算语言似的,最开始只有“0”“1”,我们利用Logistic回归就是将这两个玩意给分开。但是说到本质,它却又是回归,对吧之前讲过线性回归,就是我们理解的一元一次,或者多元多次的方程式。我们的Logistic回归其实也是方程式,上个图。应该好解释一些

看,左边是个线性方程式吧:y=-x+3,右边是个非线性方程,其实就是个圆的方程式: 对嘛,不管是啥,目的就是将两种数据区别开来


在线性回归模型中,输出一般是连续的,例如

y=f(x)=ax+b
,对于每一个输入的x,都有一个对应的y输出。模型的定义域和值域都可以是[-∞, +∞]。但是对于逻辑回归,输入可以是连续的[-∞, +∞],但输出一般是离散的,即只有有限多个输出值。例如,其值域可以只有两个值{0, 1},这两个值可以表示对样本的某种分类,高/低、患病/健康、阴性/阳性等,这就是最常见的二分类逻辑回归。因此,从整体上来说,通过逻辑回归模型,我们将在整个实数范围上的x映射到了有限个点上,这样就实现了对x的分类。因为每次拿过来一个x,经过逻辑回归分析,就可以将它归入某一类y中。

 

逻辑回归与线性回归的关系

逻辑回归也被称为广义线性回归模型,它与线性回归模型的形式基本上相同,都具有 ax+b,其中a和b是待求参数,其区别在于他们的因变量不同,多重线性回归直接将ax+b作为因变量,即y = ax+b,而logistic回归则通过函数S将ax+b对应到一个隐状态p,p = S(ax+b),然后根据p与1-p的大小决定因变量的值。这里的函数S就是Sigmoid函数

S(t)=11+et

将t换成ax+b,可以得到逻辑回归模型的参数形式:

p(x;a,b)=11+e(ax+b)1

 

图1:sigmoid函数的图像

通过函数S的作用,我们可以将输出的值限制在区间[0, 1]上,p(x)则可以用来表示概率p(y=1|x),即当一个x发生时,y被分到1那一组的概率。可是,等等,我们上面说y只有两种取值,但是这里却出现了一个区间[0, 1],这是什么鬼??其实在真实情况下,我们最终得到的y的值是在[0, 1]这个区间上的一个数,然后我们可以选择一个阈值,通常是0.5,当y>0.5时,就将这个x归到1这一类,如果y<0.5就将x归到0这一类。但是阈值是可以调整的,比如说一个比较保守的人,可能将阈值设为0.9,也就是说有超过90%的把握,才相信这个x属于1这一类

其实在上一篇中我一直纠结的就是我红色字体标记的问题,人家明明一个连续区间啊,怎么就变成一个固定的1或者0了?原来我们是在实际中将y>0.5时我们就认定y'=1,也就是将x划给“x”当y<0.5时我们就认定y'=0,就是将x划给“o”,然后逻辑回归作为一个函数,我们就要让它拟合的比较合适对吧,随之就会出现一些损失函数啊,然后又是梯度下降法啊。这就是我目前的理解。

先这样吧


猜你喜欢

转载自blog.csdn.net/txbsw/article/details/79099116
今日推荐