机器学习面试题汇总(集成学习相关)

机器学习面试题汇总(集成学习相关)

集成学习面试题

1.什么是集成学习算法?

2.集成学习主要有哪几种框架?

3.简单介绍一下bagging,常用bagging算法有哪些?

4.简单介绍一下boosting,常用boosting算法有哪些?

5.boosting思想的数学表达式是什么?

6.简单介绍一下stacking,常用stacking算法有哪些?

7.你意识到你的模型受到低偏差和高方差问题的困扰,应该使用哪种算法来解决问题呢?为什么?

8.简述一下随机森林算法的原理

9.随机森林的随机性体现在哪里?

10.随机森林为什么不容易过拟合?

11.你已经建了一个有10000棵树的随机森林模型。在得到0.00的训练误差后,你非常高兴。但是,验证错误是34.23。到底是怎么回事?你还没有训练好你的模型吗?

12.如何使用随机森林去弥补特征向量中的缺失值

13.如何使用随机森林对特征重要性进行评估?

14.随机森林算法训练时主要需要调整哪些参数?

15.随机森林为什么不能用全样本去训练m棵决策树?

16.随机森林算法有哪些优缺点

17.简述一下Adaboost原理

18.AdaBoost的优点和缺点

19.为什么Adaboost对噪声敏感?

20.Adaboost和随机森林算法的异同点

集成学习面试题二

1.简述GBDT原理

2.GBDT常用损失函数有哪些?

3.GBDT中为什么要用负梯度来代替残差计算?

4.GBDT如何用于分类?

5.GBDT中的决策树是分类树还是回归树?

6.如何使用GBDT构建特征?

7.为什么GBDT不适合使用高维稀疏特征?

8.GBDT通过什么方式减少误差?

9. GBDT如何进行正则化? 

10.GBDT里的G代表什么,体现在哪里?

11.GBDT需要调试的参数有哪些?

12.GBDT算法的优缺点有哪些?

13.Xgboost/GBDT在调参时为什么树的深度很少就能达到很高的精度,而随机森林需要的深度相对较高?

14.为什么Xgboost要用泰勒展开,优势在哪里?

15.Xgboost如何寻找最优特征?

16.Xgboost采样是有放回还是无放回的呢?

17.XGBoost训练通常调整的参数有哪些?

18.XGBoost中的树是如何剪枝?

19.XGBoost如何解决缺失值问题?

20.XGBoost和GBDT的区别


面试题答案总结请扫描小程序码在面试题相关小程序中查看:


获取更多校园招聘资讯请关注校园招聘公众号校招辅助(xiaozhaofuzhu):

猜你喜欢

转载自blog.csdn.net/qq_33011855/article/details/81482677