我使用xgboost的XGBRegressor编写了以下代码
X_train, Y_train = load_train()
from xgboost import XGBRegressor
regressor = XGBRegressor(n_estimators=1, verbose=3, n_jobs=1, objective='reg:squarederror')
regressor.fit(X_train, Y_train)当我在python3中运行它时,它用以下输出使解释器崩溃:
[23:02:57] WARNING: /workspace/src/learner.cc:686: Tree method is automatically selected to be 'approx' for faster speed. To use old behavior (exact greedy algorithm on single machine), set tree_method to 'exact'.
terminate called after throwing an instance of 'thrust::system::system_error'
what(): parallel_for failed: no kernel image is available for execution on the device似乎错误信息的来源是CUDA,这可能意味着xgboost试图使用GPU进行培训。在这里https://xgboost.readthedocs.io/en/latest/gpu/index.html他们说
CUDA 9.0,所需计算能力3.5
我的GPU (GTX 760)只支持Compute Capability 3.0,所以这可能就是问题所在。
因此,我试图告诉xgboost只使用CPU。在这里,https://github.com/dmlc/xgboost/blob/master/doc/parameter.rst可以找到应该通过XGBRegressor构造函数的kwargs参数传递的XGBRegressor参数。
但以下各点并无帮助:
regressor = XGBRegressor(n_estimators=1, verbose=3, n_jobs=1, objective='reg:squarederror', predictor='cpu_predictor')是否有可能完全避免使用GPU?我该如何解决这个问题?
xgboost版本为0.90。
发布于 2019-07-22 07:10:46
XGBoost没有充分利用你的CPU能力。如果你想把所有的果汁从你的CPU,去与LightGBM。
https://stackoverflow.com/questions/57136307
复制相似问题