我运行下面的代码。如果我停用实例化(如图所示),我的基准测试比较结果将不同于三个基准测试实验,并且哪个学习者表现更好的结论可能会不同。
我如何解决这个问题?一种方法可能是对大量的重采样进行平均。我可以为此编写代码,但当调用"benchmark“时,这可能已经是一个选项了?
resampling = rsmp("cv", folds=20)
#resampling$instantiate(task) # results below will (and shall) differ, if instantiation is not performed here
design = benchmark_grid(
tasks = task,
learners = list(glrn_knn_pca, glrn_knn_nopca),
resamplings = resampling
)
design2 = benchmark_grid(
tasks = task,
learners = list(glrn_knn_pca, glrn_knn_nopca),
resamplings = resampling
)
design3 = benchmark_grid(
tasks = task,
learners = list(glrn_knn_pca, glrn_knn_nopca),
resamplings = resampling
)
bmr = benchmark(design)
bmr2 = benchmark(design2)
bmr3 = benchmark(design3)
bmr$aggregate(msr("classif.auc"))
bmr2$aggregate(msr("classif.auc"))
bmr3$aggregate(msr("classif.auc")) 发布于 2021-04-21 02:11:17
在我看来,您可能希望使用重复CV来最小化分区引入的可变性。
你可以使用resampling = rsmp("repeated_cv", folds = 20, repeats = 100)代替resampling = rsmp("cv", folds = 20),创建100个不同的重采样场景,并对所有学习者进行基准测试。
这是ML中减少单个分区影响的常用方法。
发布于 2021-04-21 16:50:51
如果您想要找出哪个学习者表现更好,仅比较汇总的性能度量是不够的。基准的统计测试和曲线图在mlr3benchmark包中实现。
https://stackoverflow.com/questions/67165525
复制相似问题