我的机器学习模型数据集是cleaveland数据库,有300行和14个属性--预测一个人是否患有心脏病。但目的是建立一个logistic回归的分类模型。我对数据进行了预处理,并使用x_train、Y_train、X_test、Y_test运行了模型。得到了82 %的准确率。
因此,为了提高准确性,我确实删除了彼此高度相关的特性,因为它们提供了相同的信息。
我做了RFErecursive功能消除
然后采用PCAprinciple分量分析法进行降维。
尽管如此,我仍然没有发现数据集的准确性更高。
为什么会这样呢?
另外,为什么我的模型每次显示不同的准确性?是因为每次服用不同的x_train、Y_train、X_test、Y_test吗?
我应该改变我的模型以获得更高的精确度吗?80 %的平均准确度是好还是坏?
发布于 2021-08-18 09:00:35
尝试用尽网格搜索或随机参数优化,以调整您的超参数。
发布于 2021-03-07 13:46:08
请参见(https://github.com/dnishimoto/python-deep-learning/blob/master/Credit%20Card%20Defaults%20-%20hyperparameter.ipynb),以提高精度,您可以进行超调和降维和缩放。超调是寻找最佳的参数。而降维是去除那些不有助于精确降噪的特征。缩放或正规化降低了分布中的噪音。
查看GridSearch以找到最佳参数
https://stackoverflow.com/questions/66473248
复制相似问题