用一句话描述算法

  • LR:预测函数y=f(x),f(x)是sigmod函数

    得到最优sigmod函数的方法:将样本损失函数设为对数损失函数,求得最优解(sigmod函数的参数)

  • SVM:预测函数是y=sign(f(x)),f(x)是决策面函数

    得到最优决策面函数的方法:假定支持向量(距离决策面最近的点)到决策面的函数距离为+-1(也就是说约束条件是所有样本函数距离*y>=1),最大化支持向量距离决策面的几何距离

  • GBDT:迭代学习多棵树,每棵树都是学习前一棵树的残差(实际值与估计值的差,不一定是直接相减),直到模型损失达到阈值或树的数目到达阈值。

  • GBDT+LR

猜你喜欢

转载自www.cnblogs.com/xiangzhi/p/9609581.html