首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >scikit adaboost feature_importance_

scikit adaboost feature_importance_
EN

Stack Overflow用户
提问于 2016-04-16 14:39:12
回答 1查看 5.4K关注 0票数 4

在python中实现的adaboost算法是如何为每个特性分配特性重要性的?我正在使用它进行特征选择,我的模型在基于feature_importance_值的特征选择方面表现得更好。

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2016-09-07 22:24:05

当基础分类器是决策树时,feature_importances_是sklearn的adaboost算法可用的属性。为了了解adaboost算法中如何计算feature_importances_,您需要首先了解如何为决策树分类器计算它。

决策树分类器:

feature_importances_将根据您选择的拆分条件而有所不同。当分割准则被设置为“熵”:DecisionTreeClassifier(criterion='entropy')时,feature_importances_等效于每个特征的信息增益。关于如何计算每个特性的信息增益的这里有一个教程 (特别是幻灯片7)。当您更改拆分标准时,feature_importances_不再等同于信息增益,但是计算它的步骤类似于幻灯片7中的步骤(使用新的拆分标准代替熵)。

集成分类器

现在让我们回到最初的问题,它是如何为adaboost算法确定的。根据医生的说法

这种重要性的概念可以通过简单地平均每个树的特征重要性来扩展到决策树集合。

票数 5
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/36665511

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档