问题引入
面试中常会问到你bagging和boosting,这些我想对于大家都是小菜一碟了吧,但是在比赛中通常会用到stacking的方法,那么你能解释下stacking吗?
说的高大上的就是:Stacking是通过一个元分类器或者元回归器来整合多个分类模型或回归模型的集成学习技术。基础模型利用整个训练集做训练,元模型将基础模型的特征作为特征进行训练。简单的解答就是:stacking 就是当用初始训练数据学习出若干个基学习器后,将这几个学习器的预测结果作为新的训练集,来学习一个新的学习器。
这个技术在比赛中经常用到,不会这个操作的话,基本类似kaggle这种比赛就与你无缘了,如Otto Group Product分类挑战赛的第一名通过对30个模型做stacking赢得了冠军。他将30个模型的输出作为特征,继续在三个模型中训练,这三个模型XGBoost,Neural Network和Adaboost,最后再加权平均即可。
参考:
https://blog.csdn.net/zwqjoy/article/details/80431496https://www.cnblogs.com/jiaxin359/p/8559029.html
https://blog.csdn.net/zwqjoy/article/details/80431496
https://www.cnblogs.com/jiaxin359/p/8559029.html