腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(9999+)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
2
回答
查询时需要帮助吗?
我有一个分层的
树
表结构,.How,我可以得到左
树
和右
树
。1 a NULL3 c 15 e 27 g 39 i 411 k 5如果我有a的id,ie 1 .how,我能得到b和c的
树
吗?我期待着b下面的
树
4 d 8 h 10
浏览 3
提问于2009-07-27
得票数 0
2
回答
多个
模型
在评估过程中存在极大的差异。
我的数据集有大约100 k个条目,
6
个特征,标签是简单的二进制分类(大约65%的0,35%的0)。当我在不同的
模型
上训练数据集时:随机森林
模型
、决策
树
模型
、额外
树
模型
、k近邻
模型
、logistic回归
模型
、sgd
模型
、稠密神经网络
模型
等。
树
分类器:准确率和精度约为80%。
浏览 0
修改于2021-10-08
得票数 1
回答已采纳
1
回答
斯坦福解析器中TreeBank和PCFG
模型
的用途
我被englishPCFG
模型
和宾夕法尼亚
树
库注释的目的搞糊涂了,Standford Parser的软件包只包含所有类型的
模型
,它总是问我,如果我们已经有Peen treebank的注释,这个
模型
是如何工作的如果一个原始文本需要解析器,它需要查询Treebank来预测
树
吗?有人能
浏览 1
提问于2011-04-01
得票数 0
1
回答
XGBoost特性的重要性具有所有特性,但决策
树
没有
我用XGBoost训练了一个具有400个特征的
模型
。我的理解是,由于max_depth默认只有
6
,并且2^
6
< 400,所以并不是所有的特性都会在
树
中结束。决策
树
的输出清楚地表明,在最终的
树
中并不是所有的特性都被使用过。
浏览 0
提问于2020-12-21
得票数 0
回答已采纳
1
回答
XGBoost最重要的特性多次出现在多棵
树
中
我正在将xgboost
模型
(Scala)与我的事务数据集相匹配。在我的培训集中,我有大约两百万笔交易,这是一个高度不平衡的比率,正/负<0.001班。我现在在
模型
中有大约300个功能。然后,我取一个输出
模型
并对每个特性进行计数。在有多少个拆分特性存在 然后,我从大多数
树
到最少
树
的特征进行分类。我得到了一些我不确定的结果。列表顶部的特性,大多数
树
和分叉基本上出现在每个xgboost
树
中多次。例如,在具有100轮colsample
浏览 0
修改于2019-02-04
得票数 2
2
回答
我将如何将一个分层列表排序为一个
树
/吡啶
模型
的迪克?
我正在尝试生成一个dicts层次结构,用于在Qt中创建一个
树
模型
。[-1, -1, 3, 1], [-1, -1, 5, 3], [ 8, 0, -1, -1],我想得到这个输出:7:{},我希望这样做,以建立一个Qt
浏览 5
提问于2014-09-15
得票数 2
回答已采纳
1
回答
K折叠交叉验证/分区
模型
我有41个样本和
6
个预测因子的数据集。在Matlab中,我使用了
树
作为分类
树
。尽管oob误差很高,但该
模型
对41个标签进行了准确的预测。但在此基础上,我尝试用k折叠交叉验证
模型
,验证准确率仅为41%。我对此感到困惑。 我的另一个问题是,当我试图交叉验证一个已经建立的集成
模型
时,k折叠算法是如何工作的。任何帮助都会很感激的。
浏览 0
修改于2018-04-02
得票数 0
回答已采纳
1
回答
不相交数据结构中森林的组合
为了便于描述,每棵
树
都用set来表示。 我们可以说,由于有五棵
树
,所以5*4= 20是下一次联合的结果(因为任何两棵不同的
树
都可以联合起来)。当然,这个
模型
的含义是,只有2/5的可能性下一次联合将涉及到大树。 另一种
模型
可能会说,在不同的
树
中,任意两个元素之间的所有结合都是相同的,因此一个更大的
树
比一个较小的
树
更有可能参与下一个联合。在上面的示例中,有8/11
浏览 1
提问于2011-10-03
得票数 0
回答已采纳
8
回答
如何使用嵌套集
模型
对存储的
树
进行排序?
当我提到嵌套集
模型
时,我指的是描述的内容 在<e
浏览 15
修改于2013-07-16
得票数 18
3
回答
使用所有变量的R决策
树
我想执行决策
树
分析。我希望决策
树
使用
模型
中的所有变量。5 2 3 3 1 0 0 0换句话
浏览 5
修改于2014-03-20
得票数 1
1
回答
如何将xgboost转储文本转换为xgboost
模型
?
我有一个类似于1000棵
树
以下的文本转储,我希望从转储中重建xgboost
模型
,并在重新构建的
模型
上测试新文件。=4,missing=4 4:leaf=-0.0679503 5:leaf=-0.0992546..谢谢你的
浏览 5
修改于2021-12-05
得票数 1
1
回答
使用插入包从rpart中获取规则
我正在寻找一种从决策
树
中提取规则的方法。我有8个预测器,它们都是分类变量,响应变量有三个输出A、B和C。规则1:预测器1-a预测器2-b预测器3-c预测器4-b预测器5 a预测器
6
-d预测器7-e预测器8-a结果:a 规则2:预测器1-a预测器2-b预测器3-d预测器4-b预测器5 a预测器
6
-d预测器7-b预测器8-
浏览 0
修改于2018-03-28
得票数 1
3
回答
决策
树
性能
什么时候决策
树
表现良好?我绘制了一些图表,比较了基于决策
树
的
模型
和基于logistic回归的
模型
。决策
树
建立
模型
所需的时间较长,而LRclassifier
模型
的time.Moreover较小,logistic
模型
的f-score高于决策
树
。所以我想知道什么时候应该使用决策
树
。
浏览 2
提问于2017-09-22
得票数 1
1
回答
在XGBoost或任何其他基于
树
的方法中,特性的重要性是否可靠?
这个问题很长,如果您知道基于
树
的方法的特性重要性是如何工作的,我建议您跳过图片下面的文本。在基于
树
的方法中,特征重要性(FI)是通过观察每个变量减少这类
树
的杂质(对于单
树
)或平均杂质(对于集成方法)的程度来确定的。我几乎可以肯定,对于单棵
树
来说,它是不可靠的,因为
树
的变化很大,主要是在终端区域是如何建造的。XGBoost在经验上优于单一
树
和“最佳”集成学习算法,因此我们将针对它进行研究。回归不是双目标函数,因此它不会对两个
模型
的FI进行比较,logis
浏览 0
修改于2021-07-16
得票数 0
回答已采纳
2
回答
xgboost中的访问训练与评估误差
我在里找不到 0.339925:0.410902列车-rmse:0.339925 09:17:38 src/ tree /updater_prune.cc:74:
树
修剪结束,1根,124个额外节点,0剪枝节点,max_depth=
6
2 0.413563:
浏览 4
提问于2016-02-04
得票数 6
回答已采纳
1
回答
如何实现Tensorflow增强
树
的图像分类任务?
我在用CNN
模型
进行图像分类。我想尝试使用决策
树
或增强
树
模型
的图像分类。我发现Tensorflow是增强
树
模型
,但我无法理解如何将图像作为
模型
的输入。如果你知道如何使用tf.boosted
树
训练图像分类,请指导我。
浏览 1
提问于2019-09-19
得票数 0
回答已采纳
1
回答
如何利用SQL获取叶节点的根节点信息
| 2 | |1 |
6
| | B |2 | 1| 1 | |注意:
浏览 1
修改于2014-04-30
得票数 0
回答已采纳
1
回答
在R中组装组合
树
我正在尝试构建一个组合
树
模型
,其中初始叶是前
6
位数字。第二级是父母的
6
个数字中的5个数字的所有可能的组合。那么第三级是所有可能的4位父级数字的组合。这种模式一直持续到第六级,它只由一位数组成。那么我的问题是,有没有办法以这种方式生成一棵
树
?我一直在寻找R中的基本
树
的例子,但都是两手空空。任何建议都将不胜感激。谢谢
浏览 0
提问于2013-08-17
得票数 1
2
回答
受过训练的机器学习
模型
太大了
我们已经为一些回归任务训练了一个额外的
树
模型
。我们的
模型
由3个额外的
树
组成,每个
树
有200棵深度为30的
树
。在3棵额外的
树
的顶部,我们使用了一个脊回归。我们训练了我们的
模型
几个小时,pickled训练
模型
(整个类对象),供以后使用。但是,节省训练的型号太大了,大约140 GB! 是否有办法减少保存的
模型
的大小?
浏览 3
修改于2022-04-05
得票数 13
回答已采纳
2
回答
如何在Weka GUI中获取随机森林生成的树木
模型
?
但是,即使我在“更多选项”中勾选了“输出
模型
”,我也无法获得算法生成的实际
树
模型
。===分类器
模型
(全训练集) ===构建
模型
所需时间: 1.07秒
浏览 7
提问于2015-03-22
得票数 1
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
第 11 页
点击加载更多
领券