我试图理解xgboost.XGBRegressor和xgboost.sklearn.XGBClassifier之间的区别。
有人能用简洁的方式解释这种差异吗?
因为当我用完全相同的数据对两个分类器进行匹配时,我得到了非常不同的性能。
我就是这么拟合数据的。
clf = xgboost.XGBRegressor(alpha=c)
#clf = xgboost.sklearn.XGBClassifier(alpha=c)
clf.fit(X_train, y_train)
y_pred = clf.predict(X_test)
print('Model roc auc score: %0.3f' % roc_auc_score(y_test, y_pred, average='macro', sample_weight=None))
print('Model pr auc score: %0.3f' % average_precision_score(y_test, y_pred))当clf = xgboost.sklearn.XGBClassifier(alpha=c)时
模型中华大学成绩: 0.703
模型pr评分: 0.453
是什么导致了这种性能差异?
发布于 2018-04-05 23:06:21
XGBRegressor用于连续的目标/结果变量。这些常被称为“回归问题”。
XGBClassifier用于分类目标/结果变量。这些常被称为“分类问题”。
https://datascience.stackexchange.com/questions/29969
复制相似问题