logist/softmax回归

1、logist:应用于二分类

1、与一般回归的区别在于,逻辑斯蒂变换能解决一般回归模型遇到的如下困难:

    1.模型的预测概率可能落在[0,1]区间之外,logist中>=0.5取1正例,<0.5取0负例,;

    2.独立变量不是正态分布的;

    3.因变量的方差是不一致的.

2、logist回归引入sigmod函数(阶越函数)作为模型函数,使目标值在0,1范围内

3、引入对数似然函数作为损失函数,求的极值

softmax:多分类

猜你喜欢

转载自blog.csdn.net/weilan100/article/details/81348078