逻辑回归和支持向量机的联系是什么?

我们在学习机器学习或者人工智能的时候都会接触到一些关于逻辑回归和支持向量机的知识,但是很多朋友对于逻辑回归和支持向量机的联系不是很清楚。在这篇文章中我们就详细给大家介绍一下这些内容。

首先我们给大家介绍一下逻辑回归和支持向量机的相同点,这两种算法的相同点uti体现在五点,第一点就是这两种算法都是分类算法,且一般处理二分类问题。第二点,都是监督学习算法。第三点两个方法都可以增加不同的正则化项。第四点,都是判别模型。第五点,如果不考虑核函数,逻辑回归和支持向量机都是线性分类算法,也就是说他们的分类决策面都是线性的。

下面我们给大家介绍一下逻辑回归和支持向量机的不同点,这两种算法的不同点具体体现在四点,第一就是支持向量机的处理方法是只考虑support vectors,也就是和分类最相关的少数点,去学习分类器。而逻辑回归通过非线性映射,大大减小了离分类平面较远的点的权重,相对提升了与分类最相关的数据点的权重。所以,线性支持向量机不直接依赖于数据分布,分类平面不受一类点影响;逻辑回归则受所有数据点的影响,如果数据不同类别strongly unbalance,一般需要先对数据做balancing。第二就是损失函数不同,逻辑回归采用对数似然函数,而支持向量机采用的是合页损失函数。这两个损失函数的目的都是增加对分类影响较大的数据点的权重,减少与分类关系较小的数据点的权重。第三点就是在解决非线性问题时,支持向量机采用核函数的机制,而逻辑回归通常不采用核函数的方法。因为支持向量机只有少数几个点运算,逻辑回归要全部。第四就是支持向量机不能产生概率,逻辑回归可以产生概率。

那么逻辑回归和线性回归的区别是什么呢?首先逻辑回归和线性回归都是广义的线性回归,其次经典线性模型是平方损失函数,而逻辑回归则是似然函数,另外线性回归在整个实数域范围内进行预测,敏感度一致,而分类范围,需要在0到1。逻辑回归就是一种减小预测范围,将预测值限定为0到1间的一种回归模型,因而对于这类问题来说,逻辑回归的鲁棒性比线性回归的要好。

在这篇文章中我们给大家介绍了关于逻辑回归和支持向量机的联系,从中不难发现在机器学习中有很多的内容都是有联系的,同时也是有各自的特点。关于逻辑回归和支持向量机的知识我们就给大家介绍到这里了,希望这篇文章能够帮助到大家。

猜你喜欢

转载自www.cnblogs.com/CDA-JG/p/10407939.html