腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(9999+)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
1
回答
用于培训的相同数据的
模型
评估
指标
低于培训
指标
我用一些数据训练了一个LSTM
模型
。当我使用训练中使用的相同的数据来
评估
训练
模型
的性能时,我得到了不同的结果。我所使用的
评估
指标
是精确性、精确性、回忆性和F1评分。我用过PyTorch。('Predicted labels', predictions) model = None # Clear modelval loss: 0.5143, {
浏览 2
提问于2022-02-18
得票数 0
1
回答
使用
模型
评估
指标
来选择
模型
会导致数据泄漏吗?
我读过博客文章关于改进机器学习
模型
、训练/验证/测试分裂的文章。最后是这句话:我发现这有点奇怪,因为我的印象是,这正是测试的使用方式,以确定是否使用
模型
。然而,我确实意识到,也许作者的观点是这样的: 对于给定的数据集,可以使用许多可能的
模型
,其中一些
模型
在
评估
指标</
浏览 0
提问于2022-11-30
得票数 1
1
回答
每10个时期报告一次Keras
模型
评估
指标
?
我想知道我的
模型
的特异性和敏感性。目前,我正在
评估
所有时期完成后的
模型
:顺便说一句:尝试使用。有没有可能是个好办法?
浏览 1
提问于2018-05-28
得票数 5
2
回答
Keras model.compile:由
模型
评估
的
指标
我正在学习一些Keras教程,我知道model.compile方法创建了一个
模型
,并采用' metrics‘参数来定义在训练和测试期间用于
评估
的
指标
。我想使用其他
指标
,如fmeasure,阅读时,我知道有很多选择。但是我不知道如何将它们传递给compile方法?
浏览 3
修改于2017-12-19
得票数 7
回答已采纳
1
回答
如何显示我的
模型
的
评估
指标
和混淆矩阵
我已经能够显示准确性得分,但我希望包括其他
评估
指标
(Precision_score、F1_score、recall_score X_train,
浏览 6
提问于2019-08-05
得票数 0
回答已采纳
1
回答
为什么分类
模型
在
评估
指标
中使用top5的准确性?
我在检查Resnet和Mobilenet中的
评估
指标
,我想知道为什么top5的准确性被用于
评估
指标
?选择最高的概率,top1精度是这些应用程序的最佳选择。
浏览 4
提问于2022-01-21
得票数 0
1
回答
如何在scikt-learn中使用持久性
模型
计算
评估
指标
我正在使用joblib内置运行这个
模型
持久性。我能够保存
模型
,现在我想测试概率并
评估
新项目的结果。我想知道如何使用joblib
模型
持久性来计算
评估
指标
?
浏览 17
提问于2019-03-21
得票数 0
1
回答
用于
评估
不同
模型
的多个
指标
的图表
其目的是总结使用多个
指标
进行
评估
的不同
模型
的结果。有没有一种方法可以很容易地在Python中做到这一点,如果没有,可以让我参考图表的名称或我可以做到的框架吗? ? 谢谢,
浏览 25
修改于2020-11-24
得票数 1
回答已采纳
1
回答
学习和累积奖励是
评估
RL
模型
的好
指标
吗?
然而,我没有使用学习和累积奖励,而是在每一集之后通过没有学习方法的整个模拟,这表明
模型
实际上学习得很好。这大大延长了程序的运行时间。此外,我必须在整个过程中提取最好的
模型
,因为最终的
模型
有时似乎表现不佳。 对此有什么建议或解释吗?
浏览 16
提问于2020-05-25
得票数 0
1
回答
XGB分类器
模型
泛化不佳,但
评估
指标
改进了吗?
我正在将XGB
模型
拟合到50k行26个特性的数据集中。我正在使用不同的max_depths + n_estimators运行网格搜索,该
模型
使用更深的树执行得更好(深度为14 im,达到c.87精度,c.83精度,当我将深度降低到5时,.85精度和.81精度降低在验证集上,两种
模型
的性能是相同的(.81精度、.78精度)。 因此,在表面层面上,更深的
模型
似乎表现出了相同或更好的效果,但当我为这两个
模型
绘制学习曲线时,更深的
模型
看起来就像它的过度拟合。下面的图像显示了两个
模型</e
浏览 4
提问于2022-09-24
得票数 -1
回答已采纳
1
回答
如何在一个与训练不同的Yolov5集合上
评估
它?
当我完成对YOLO V5
模型
的培训时,对验证数据显示了
模型
的精度、召回和AP (平均精度)等
评估
指标
。是否有可能根据新的图像从经过训练的
模型
中查看这些
评估
指标
?
浏览 26
修改于2022-09-25
得票数 0
回答已采纳
1
回答
选择合适的回归
模型
度量
我一直在使用r2 score
指标
。我知道有几个
评估
指标
,我读过几篇关于它的文章。因为我还是机器学习的初学者。我还是很困惑 从这个中可以看出,了解数据的分
浏览 3
修改于2020-03-26
得票数 2
回答已采纳
1
回答
我们是否需要测试数据来
评估
模型
的性能-回归
在分类的基础上,对
模型
进行了精确性、召回性、Hamming损失、准确性等方面的评价,这些分类
模型
需要测试数据来计算这些评价
指标
。当我们计算SSR、SSE、RMSE和其他评价
指标
时,是否与回归的情况相同。 从R的角度来看,摘要(LmRegressionModel)以一种或另一种方式给出了这些
评估
指标
数字。为什么我们需要测试数据,然后在这里
评估
回归
模型
。
浏览 0
提问于2018-07-27
得票数 -1
回答已采纳
1
回答
Rattle R package:
评估
logistic回归
模型
和决策树
模型
的
模型
性能的最佳
指标
是什么?
我有一个数据集需要在两个
模型
中进行
评估
:逻辑回归和决策树。
评估
这两个
模型
性能的最佳
指标
是什么?
浏览 3
提问于2015-03-10
得票数 0
1
回答
在Keras中的model.compile方法中,参数“度量”的含义是什么?
我不太清楚Keras中类
模型
编译方法的参数metrics的含义:
模型
在培训和测试期间要
评估
的
指标
列表这些
指标
是否用于在每个训练时代结束时
评估
网络的性能,即在每个时代结束时,代码使网络对训练集进行预测并计算所传递的
指标
。或 这些是用来训练网络的
指标
吗?也就是说,网络的目标是为这些
指标
获得尽
浏览 0
提问于2019-10-01
得票数 1
回答已采纳
1
回答
如何使用CIDEr度量
我看到CIDEr是图像字幕中的一个通用
指标
。如果没有办法,我如何
评估
我的图像标题
模型
? 附注:我在我的项目中使用了OFA
模型
。
浏览 6
提问于2022-03-22
得票数 0
回答已采纳
2
回答
为朴素贝叶斯分类建立一条ROC曲线有意义吗?
因为它是一种分类算法,所以我想知道我是否可以用相同的方法(使用相同的度量)来
评估
NaiveBayes
模型
,我们
评估
其他分类算法,比如支持向量机、LogisticRegression或DecisionTrees对我来说,使用精度、回忆或F1评分这样的
指标
来
评估
它是有意义的。但我对像中华民国曲线或PR曲线这样的
指标
表示怀疑?用这些曲线来评价我的
模型
是正确的吗?或者为NaiveBayes
模型
建立一个ROC/PR曲线是没有意义的? 非常感谢!)
浏览 0
提问于2022-12-11
得票数 0
1
回答
Logistic回归绩效评价
指标
我建立了一个Logistic回归
模型
,并对
模型
的性能进行了
评估
。我想了解它的
评估
指标
。 度量的敏感性、特异性、假阳性率、精确性、召回性和准确性能告诉我们关于这个
模型
的哪些信息?
浏览 0
修改于2019-03-06
得票数 1
回答已采纳
1
回答
Tensorflow:保存
评估
指标
我已经使用tensorflow罐头
模型
tf.Estimator.LogisticClassifier以分布式方式训练了一个逻辑回归
模型
。每X秒创建一个检查点,并对每个检查点执行
评估
。是否可以保存每个检查点获得的
评估
指标
?我注意到
评估
指标
可能已经保存,但我不知道它们可以保存在哪里,以及如何读取它们: INFO:tensorflow:Saving dict for global step 2000: accuracy =
浏览 0
修改于2018-10-06
得票数 1
3
回答
机器学习中使用的“相对绝对误差”和“根相对平方误差”的公式(由Weka计算)
在开源数据挖掘软件Weka (用Java编写)中,当运行线性回归等数据挖掘算法时,Weka返回
模型
和一些
模型
对测试数据的
评估
指标
。我想使用这些
指标
来
评估
我自己在Matlab中的算法。
浏览 0
修改于2012-05-28
得票数 8
回答已采纳
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
第 11 页
点击加载更多
领券