xgboost.sklearn诉xgboost.XGBClassifier下面是我尝试从make_moons训练sklearn.datasets数据集的代码,并看到了这些数据集与函数的区别,但结果是相同的:
数据:
from sklearn import datasets
from sklearn import model_selection
X, y = datasets.make_moons(n_samples=100000, noise=0.4, random_state=341)
x_train, x_test, y_train, y_test = model_selection.train_test_split(X, y, test_size=0.2, random_state=431)分类器:
xgb1 = xgboost.sklearn.XGBClassifier(max_depth=2)
xgb2 = xgboost.XGBClassifier(max_depth=2)列车部分:
xgb1.fit(x_train, y_train)
xgb2.fit(x_train, y_train)试验部分:
print(xgb1.score(x_test, y_test))
print(xgb2.score(x_test, y_test))结果:
xgb1: 0.8626
xgb2: 0.8626正如你所看到的,结果是一样的,所以,为什么有两种不同的方法来接近呢?如果他们是不同的,你能解释一下有什么不同吗?哪一种更适合使用?我的问题不在于分类器本身,而在于xgboost.sklearn,我想知道我可以只使用xgboost或xgboost.sklearn吗?为什么?
发布于 2021-12-09 09:40:33
它们完全相同,并为它们的xgboost模型提供了一个scikit-learn API,而不是同样可用的学习API。您可以在源代码中看到,在xgboost中,他们从xgboost.sklearn导入XGBClassifier,这与您使用的第二个模型完全相同。至于要使用的两个类中的哪一个,因为它们完全相同,所以这并不重要,但我可能会使用xgboost.XGBClassifier,因为这是已经在包的顶层公开的类。
https://datascience.stackexchange.com/questions/104917
复制相似问题