我用XGBoost训练了一个具有400个特征的模型。我的理解是,由于max_depth默认只有6,并且2^6 < 400,所以并不是所有的特性都会在树中结束。
为什么当我输出特性重要性图时,它会显示每一个超过0重要性的特性?决策树的输出清楚地表明,在最终的树中并不是所有的特性都被使用过。
发布于 2020-12-21 22:05:33
XGBoost迭代地训练许多树。所以不止一棵树。例如,您可以绘制一棵树,请参阅:https://machinelearningmastery.com/visualize-gradient-boosting-decision-trees-xgboost-python/
一个基本的决策树算法只创建一棵树。如果将剪枝应用到树中,并不是所有的功能都会出现在树中。第一次分裂是最重要的,.
https://datascience.stackexchange.com/questions/86993
复制相似问题