腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(9999+)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
2
回答
如何确定ada boost中
弱
分类
器
的数目
我想问一个问题:在ada boost
分类
算法中,您正常使用了多少
弱
分类
器
。例如,如果我有一些特征,比如像haris,hog,sift之类的特征检测
器
获得的8000个特征,我通常如何确定这些特征的
弱
分类
器
的数量。对于每种类型的特征,我都考虑使用1种
弱
分类
器
,并以这种方式进行加权和。恐怕它太合适了..。
浏览 4
修改于2017-04-05
得票数 0
回答已采纳
1
回答
强
分类
器
的boosting效果
使用强(而不是
弱
,错误率接近随机)的
分类
器
提升的效果是什么?当一个强
分类
器
与一组
弱
分类
器
一起使用时,有没有可能一个强
分类
器
本身的表现比这个强
分类
器
在adaboost中的表现更好?
浏览 1
提问于2013-07-08
得票数 2
回答已采纳
1
回答
基于分布的
弱
学习者:决策残端
我需要提高决策支持
弱
分类
器
。所以每次迭代,我都要根据一定的权重训练
弱
分类
器
。然后,我将在每次迭代之后更新权重。到目前为止我已经明白了。但我不清楚的是“基于权重的训练决策残基
弱
分类
器
”。假设我有训练数据集{(x1,y1),(x
2
,y
2
)……,(xm,ym)} X是特性(例如10),y是一个二进制类。 最初,权重为w(x) = 1/m。因此,
弱
学习者的决策结果应该是h(x),
浏览 3
提问于2015-07-30
得票数 1
回答已采纳
1
回答
Adaboost算法的基本理解
我读过许多文章,解释Adaboost如何使用set of
弱
*
分类
器
*创建强
分类
器
。因此,在技术上没有创
浏览 0
修改于2012-04-07
得票数 5
回答已采纳
2
回答
弱
分类
器
我知道AdaBoost使用一组
弱
分类
器
,但我不知道这些
弱
分类
器
是什么。你能用一个例子给我解释一下吗?如果我必须创建自己的
弱
分类
器
,或者我需要使用某种算法,你能告诉我吗?
浏览 0
提问于2012-08-24
得票数 15
回答已采纳
1
回答
Viola-Jones人脸检测和每个
弱
分类
的特征
据我所知,Viola-Jones人脸检测中的每个
弱
分类
器
都会得到N个训练样本和1个特征。 1)这是否意味着我必须首先检查160k以上的
分类
器
以获得24x24帧,因为有那么多Haar特征?
2
)每个
弱
分类
器
是否在N个训练样本中检查自己的特征?也就是说,使用N个图像中每个图像的分数,并检查积分图像来计算其是否为人脸?
浏览 2
提问于2020-05-14
得票数 0
1
回答
DecisionTreeRegressor在GradientBoostingClassifier的罩下
我正在检验我的GradientBoostingClassifier模型的
弱
估计量。该模型适用于二进制类数据集。 我注意到,该集合
分类
器
下的所有
弱
估计
器
都是决策树回归对象。这在我看来很奇怪。我的问题是:梯度增强
分类
器
为什么以及如何将
弱
估计
器
转化为不受0和1约束的回归量任务(而不是
分类
任务)?最终,GradientBoostingClassifier输出0到1之间的伪概率:为什么
弱
估计的集合不做同样的工
浏览 0
提问于2020-10-29
得票数 2
回答已采纳
1
回答
如何用AdaBoost算法将多个
弱
分类
器
组合成一个强
分类
器
?
我对AdaBoost如何将每次迭代的
弱
分类
器
组合成强
分类
器
有疑问。我使用C4.5算法作为
弱
分类
器
算法。对于每一次迭代,它产生不同的决策树和alpha。我如何将这些模型组合成一个强大的
分类
器
。
浏览 2
提问于2012-05-21
得票数 0
1
回答
结合使用LBP和Adaboost
我将使用LBP作为
弱
分类
器
,使用Adaboost将它们提升为一个强
分类
器
。 我有阳性和阴性样本。它们的大小是18x18像素。我将每张图片划分为9个子区域。在每个块中,我计算每个像素的LBP值。Adaboost期望一个
弱
分类
器
,但LBP本身不能对图像进行
分类
。如何修改Adaboost以从每个块中选择最重要的值?
浏览 3
修改于2013-05-21
得票数 2
1
回答
这种AdaBoost行为正确吗?
分类
器
选择的第一个特征识别A类人脸,但不识别B型人脸,而不识别任何噪声。因此,它存在1/6的一个错误(以及增强
分类
器
中的相关权重)。因此,它有一个1/11 (
2
/22)错误,这个错误明显小于1/6。直觉上,我期望一个强
分类
器
由一个
弱
分类
器
和一个
弱
分类
器
组成,分别检测A面和B面。我甚至愿意接受的是,我只能得到两张中的一张,因为
浏览 2
提问于2014-06-17
得票数 4
回答已采纳
1
回答
弱
学习者和
弱
分类
器
之间有什么区别吗?
我发现了以下两个概念:
弱
学习者和
弱
分类
器
。如果有什么不同,那是什么呢?
浏览 0
修改于2021-04-20
得票数 6
回答已采纳
1
回答
在R中,可以将不同的
分类
算法集成在一个套袋模型中吗?
在使用随机林、支持向量机等不同的
分类
算法时,具有不同的
分类
精度。所以,我想把所有的算法集成到一个框架中,比如说adaboost。 我们知道adaboost框架使用多个“
弱
”
分类
算法来组合一个强
分类
器
。那么,我可以根据自己的需要定制“
弱
”
分类
算法吗?以下是我目前的想法:在这个框架中,我首先使用支持向量机。然后给出被错误
分类
的数据更多的权重。然后,我使用随机森林。..。最后,该框架中的所有
分类
器
都将协同
浏览 0
修改于2017-10-05
得票数 0
回答已采纳
2
回答
使用不同
分类
器
组合的集合学习是助推的另一个名称吗?
根据我的理解,AdaBoost使用了称为基本
分类
器
的
弱
分类
器
,并创建了它的几个实例。例如,
弱
分类
器
就是决策树。因此,AdaBoost可以创建最大N决策树(其中N =样本数)并组合预测结果。1) AdaBoost的Matlab代码是否结合了不同的
分类
器
?我不清楚合并的方法-whether,他们做的是和票或多数票或者其他什么的。如果它们结合了几个
分类
器
,那么从技术上讲,它是一种异质集成
浏览 0
修改于2018-06-19
得票数 0
回答已采纳
1
回答
Adaboost使用Decision stump实现
我一直在尝试使用decision stump作为
弱
分类
器
来实现Adaboost,但我不知道如何优先考虑加权未
分类
实例?
浏览 1
提问于2015-05-14
得票数 0
4
回答
什么是
弱
监督学习(引导)?
我理解监督学习和非监督学习的区别:无监督学习允许
分类
器
“自主学习”,例如使用聚类。 但是什么是“
弱
监督学习”呢?它如何
分类
它的例子?
浏览 1
修改于2020-10-15
得票数 29
回答已采纳
1
回答
在matlab中更新NaiveBayes
分类
器
我正在为在线版本的weak和AdaBoost算法编写一个程序,我正在使用matlab的NaiveBayes
分类
器
作为
弱
学习
器
。因为作为在线学习者,他们应该一次获取一个数据,所以我必须在每个周期更新NaiveBayes
分类
器
,但它没有用于它的方法,我必须将所有数据存储在一个数组中,并每次在孔阵列上调用NaiveBayes.fit(另外,如果有任何其他
弱
分类
器
可以研究,请让我知道) 你的,Kourosh
浏览 1
提问于2012-01-08
得票数 2
1
回答
对于任何分布,
弱
学习者真的必须有< 1/
2
的误差吗?
我所了解到的关于
弱
学习者的一切(特别是与AdaBoost有关)都表明,对于任何训练数据的分布,他们必须具有< 1/
2
的误差。我想我一定是误解了这一点,所以如果有人能指出我以下逻辑中的缺陷,我将不胜感激: 假设一个
弱
学习者只对一个例子进行了错误
分类
(称之为x )。显然,对于这种分布,
弱
学习者的误差为1,即> 1/
2
。根据我对定义的理解,这意味着它不是真正的
弱
学习者。因此,如果一个
弱
学习者错误地
分类
了一段样
浏览 1
提问于2016-05-17
得票数 0
2
回答
什么是
弱
学习者?
我想要比较不同
分类
器
的不同错误率与来自
弱
学习者的错误率(比随机猜测更好)。所以,我的问题是,对于一个简单、容易处理的
弱
学习者来说,有哪些选择?或者,我对概念的理解不正确,
弱
学习者仅仅是我选择的任何基准(例如,线性回归)?
浏览 4
修改于2014-06-02
得票数 25
回答已采纳
1
回答
Python中的集合
我已经实现了4个
分类
器使用科学工具-学习在Python。但是,他们的表现都不是很好。我想要实现这些
分类
器
的集合。我在“科学”杂志上查了一下,但是它有随机森林和Adaboost。我应该如何创建一个组合我的
弱
分类
器
?
浏览 3
提问于2016-11-16
得票数 1
回答已采纳
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
第 11 页
点击加载更多
领券