我的数据集有大约100 k个条目,6个特征,标签是简单的二进制分类(大约65%的0,35%的0)。
当我在不同的模型上训练数据集时:随机森林模型、决策树模型、额外树模型、k近邻模型、logistic回归模型、sgd模型、稠密神经网络模型等。
我不明白这种差别有什么区别。有人能解释一下为什么会这样吗?我做错什么了吗?
也找不到答案我的问题,所以请链接,如果有人已经问了。
真的很感激你的帮助!
发布于 2021-10-08 02:12:55
几点想法:
发布于 2021-10-09 12:04:23
比较模型的一种方法是查看不同的模型学习到的不同的决策边界。不同的决策边界会对评价指标产生影响。
https://datascience.stackexchange.com/questions/102911
复制相似问题