首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >使用'cv‘参数的sklearn.model_selection.KFold和sklearn.model_selection.cross_validate有什么不同?

使用'cv‘参数的sklearn.model_selection.KFold和sklearn.model_selection.cross_validate有什么不同?
EN

Stack Overflow用户
提问于 2019-05-20 21:10:09
回答 1查看 136关注 0票数 0

我可以在cv=10中使用sklearn中的cross_validate,而不是使用n_splits=10中的Kfold吗?它们的工作原理相同吗?

EN

回答 1

Stack Overflow用户

发布于 2019-05-20 21:34:32

我相信KFold会简单地将你的训练数据分成10部分。

然而,cross_validate也会将数据分割成10个部分(使用cv=10参数),但它也会实际执行交叉验证。换句话说,它将运行您的模型10倍,您将能够报告您的模型的性能,这是KFold所不能做的。

换句话说,KFold是cross_validation中的一小步。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/56221694

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档