腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(9999+)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
1
回答
我应该如何建模/设计这些聚合?
我是新的DDD,我正在尝试
模型
/设计以下领域的聚合。包括扶持要素和重点领域的
评估
模型
(AM)。EEs还包含通用流程(GPs)。
评估
(As)包含EE子
评估
(EESA)、FA子
评估
(FASA)和GP子
评估
(GPSA)。区域不变量是: AM中GPs的总权重必须等于100。我想把
评估
模型
和
评估</e
浏览 0
修改于2021-08-10
得票数 0
1
回答
偏差-方差权衡与
模型
评估
假设我们已经训练了一个
模型
(由它的超参数定义),并使用某种
性能
度量(比如R^2)在测试集上对它进行了
评估
。如果我们现在在不同的训练数据上训练相同的
模型
(由它的超参数定义),我们将得到(可能) R^2的不同值。 如果R^2依赖于训练集,那么我们将获得R^2平均值附近的正态分布。因此,为了更好地了解
模型
的
性能
,不应该将各种
评估
中的R^2平均化吗?另外,为什么在报告
模型
差异的
性能
时不包括?这不也是
评估
模型
浏览 0
提问于2022-04-14
得票数 1
1
回答
Logistic回归绩效评价指标
我建立了一个Logistic回归
模型
,并对
模型
的
性能
进行了
评估
。我想了解它的
评估
指标。 度量的敏感性、特异性、假阳性率、精确性、召回性和准确
性能
告诉我们关于这个
模型
的哪些信息?
浏览 0
修改于2019-03-06
得票数 1
回答已采纳
1
回答
模型
性能
估计中交叉验证的有效性
当应用交叉验证来估计预测
模型
的
性能
时,所报告的
性能
通常是所有验证折叠上的平均
性能
。由于在此过程中,创建了多个
模型
,必须选择一个
模型
作为实际用于预测真实世界样本的
模型
(例如在产品中)。我想知道,将验证
性能
报告为最终(选定)
模型
的估计
性能
是否真的有效(因为
性能
是使用在验证过程中创建的所有其他
模型
导出的,但在使用最终
模型
进行预测时不考虑)。我预计所选
模型</em
浏览 0
修改于2019-09-07
得票数 1
回答已采纳
1
回答
在python的最终
模型
培训中,我可以使用从R中调优获得的超参数吗?
我目前正在为一个数据集创建和
评估
几个
模型
。一旦获得了最优参数,我能用这些参数来训练python中完整数据的最终
模型
吗?
浏览 0
提问于2022-07-28
得票数 0
回答已采纳
1
回答
在多个种子上使用K-折叠交叉验证来
评估
模型
的正确方法是什么?
我正在训练一个深度学习
模型
,使用3个随机种子上的5倍CV (随机种子用于
模型
初始化,CV拆分一次)。对于每个折叠,我保存最好的
模型
。因此,在模拟之后,我得到了15个
模型
。为了
评估
性能
,我取了这15个
模型
中的最好的(在整个
评估
过程中没有变化),并使用每个种子的所有5折的验证折叠来对其进行
评估
。然后我对这些种子的结果进行平均。 我想知道我在这里做的事情是否正确。我已经读到有两种方法来计算CV
性能
:1池化,其中
性能
浏览 28
修改于2020-01-10
得票数 0
1
回答
我如何知道我的回归
模型
是否不合适?
在不存在领域知识
性能
度量的情况下,如何
评估
具有特定RMSE的回归
模型
的
性能
? 也许MAPE是一种比较我的
模型
在我的数据集上的
性能
和另一个
模型
在另一个但类似的数据集上的
性能
的方法。有任何方法来
评估
我的训练
模型
的
性能
,给出总结统计和RMSE值吗?这是否意味着我的
模型
“足够好”?我的意思是,我怎么能确定我的
模型
不适合这些数据?
浏览 0
修改于2023-03-30
得票数 0
1
回答
Rattle R package:
评估
logistic回归
模型
和决策树
模型
的
模型
性能
的最佳指标是什么?
我有一个数据集需要在两个
模型
中进行
评估
:逻辑回归和决策树。
评估
这两个
模型
性能
的最佳指标是什么?
浏览 3
提问于2015-03-10
得票数 0
1
回答
如何在大型数据集的特定切片上
评估
TensorFlow
模型
的
性能
?
如何在大型
评估
数据集的特定片(段)上
评估
我的TensorFlow
模型
的
性能
?
浏览 3
修改于2018-03-30
得票数 0
回答已采纳
1
回答
如果我不关心对新数据的准确性的不偏不倚的估计,我是否需要一个测试集?
简言之: 测试集-获得对新数据的
模型
性能
的无偏估计。我理解,在许多情况下,您希望对
模型
性能
进行公正的
评估
,例如,发布论文或向客户报告结果。但是,在我的情况下,我不关心获得一个对新数据的
模型
性能
的公正估计。我只想找到最好的
模型
并使用它。除了对
模型
性能
的不偏不倚的
评估
外,还有什么
浏览 0
提问于2018-03-07
得票数 1
3
回答
在深度强化学习中,神经网络的设计是否有经验法则?
在深入学习中,我们可以用损失函数值来
评估
模型
的
性能
,并通过K倍交叉验证等方法来提高
模型
的
性能
。但是,如何设计和优化神经网络在深度强化学习中的应用呢?我们可以用奖励等来
评估
强化学习算法本身的
性能
,但是如何保证神经网络在强化学习算法中的应用是好的还是坏的呢?
浏览 0
提问于2019-02-08
得票数 3
1
回答
选择合适的回归
模型
度量
我知道有几个
评估
指标,我读过几篇关于它的文章。因为我还是机器学习的初学者。我还是很困惑 从这个中可以看出,了解数据的分布和业务目标有助于我们理解如何选择合适的度量标准。这
浏览 3
修改于2020-03-26
得票数 2
回答已采纳
0
回答
贝叶斯结构时间序列
模型
(BSTS)
模型
性能
如何让
评估
?
机器学习
、
神经网络
、
深度学习
、
人工智能
贝叶斯结构时间序列
模型
(BSTS)
模型
性能
如何让
评估
?
浏览 186
提问于2022-08-11
1
回答
为什么从10倍交叉验证中得到的
模型
性能
分数存在巨大差异?
我使用的是梯度增强回归
模型
(GBRT)。 为了
评估
这个
模型
,我使用了10倍交叉验证,在每个中我都设置了相同的参数,因此唯一的区别就是训练和测试数据集。为什么会有这么
大
的差异?这样的差异是否表明我的
模型
的
性能
不好?
浏览 2
提问于2014-09-12
得票数 0
回答已采纳
1
回答
类似恶意软件检测问题的真实
性能
评价
我有一个问题,如何
评估
模型
的
性能
类似于恶意软件检测在现实世界中。例如,我创建了一个恶意软件检测
模型
来预测引擎是否会停机。而且这个
模型
似乎做得不错,所以我把它推向了生产。然而,在现实世界中,当
模型
预测引擎会熄火时,我会派人去修理它。棘手的部分是,我正在做的预防措施,派人去修理发动机之前,它已经关闭。有什么好的方法来
评估
模型
的
性能
吗?谢谢!
浏览 0
提问于2020-04-16
得票数 0
3
回答
比较经典时间序列预测方法(ARIMA/Prophet)与ML方法的最佳通用度量?
我是时间序列预测的新手,我希望将ARIMA/Prophet
模型
与基于历史股票市场数据和社交媒体情绪评分的XGBoost
模型
进行比较,预测未来的股票市场价值。我更熟悉机器学习,所以通常会使用像R^2这样的
评估
指标来
评估
这类问题的
模型
性能
。是否有像ARIMA/Prophet这样的预测方法来
评估
它们的准确性,这样我就可以和XGBoost的预测精度做类似的比较了吗?
浏览 0
修改于2021-08-11
得票数 3
1
回答
在K倍交叉验证中,最终测试集的意义是什么?
我正在对我的二元分类问题进行logistic回归,并使用k折叠交叉验证(k=10)对
模型
进行了验证。但是,我不明白为什么我需要一个最终的测试集:
模型
的
性能
不能基于k折叠验证(即,来自10个结果折叠的度量标准)进行
评估
吗?因为,
模型
没有真正“看到”测试数据,这不是K折叠的全部要点吗?还是从10倍中的每一次提供的
性能
度量都足以
评估
模型
的
性能
?
浏览 0
提问于2023-04-23
得票数 0
2
回答
为什么超参数调优发生在验证数据集上,而不是在一开始?
据我所知,我选择一个
模型
,对训练数据进行训练,对训练数据进行
性能
评估
,然后对验证数据进行超参数整定
评估
模型
性能
,然后选择最佳
模型
并对测试数据进行测试。为了做到这一点,我基本上需要随机选择一个
模型
来训练数据。我不明白的是,我不知道哪一种模式在一开始会是最好的。假设我认为神经网络和随机森林可能对我的问题有用。那么,为什么我不开始搜索一个一般的,例如,神经网络体系结构,随机森林体系结构,并从一开始,
评估
哪一个
模型
是最好的一
浏览 0
提问于2022-05-28
得票数 0
1
回答
是否可以将两个预测建模案例(特征重叠)的训练集组合起来?
由于这两个数据集都很小,它们各自的预测
模型
的
性能
不太好。为了提高预测
性能
,我可以/应该应用以下步骤吗?删除不常见的列(因此A、B和E列保留在两个数据集中)基于D1和D2训练集组合的预测
模型
的训练我认为这是允许的,但我不能完全确定是否有任何(坏的)影响。
浏览 0
提问于2020-06-21
得票数 2
1
回答
无标记数据上变分自动编码器
性能
的评价
为了
评估
VAE在标记数据上的
性能
,首先对原始数据运行KMeans,并使用调整的互信息评分(AMI)将生成的标签与真正的标签进行比较。然后,在对
模型
进行训练后,将验证数据传递给它,在潜在向量上运行KMeans,并将生成的标签与使用AMI的验证数据的真实标签进行比较。最后,我比较了两个AMI的得分,看看KMeans在潜在向量上的
性能
是否优于原始数据。 我的问题是:当数据未被标记时,我们如何
评估
VAE的
性能
?我知道我们可以在原始数据上运行KMeans并为其生成标签,但是在这种情况下,既然我们认
浏览 8
修改于2022-09-24
得票数 -1
回答已采纳
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
第 11 页
点击加载更多
领券