有什么方法可以加快模型在大文件(超过200 mb)上的匹配?我试着把它们分成几块,或者用dask,但是效果不令人满意。我使用16 i7内存和i7 2.2GHz处理器4核。它仍然是购买云服务还是使用更好的计算机?我的紧身衣
clf = xgb.XGBClassifier(n_estimators=500,
n_jobs=4,
max_depth=9,
learning_rate=0.05,
subsample=0.7,
colsample_bytree=0.7,
missing=-999,
gamma = 0.1)
# Number of variable > 400
# Number of rows > 200000发布于 2019-07-18 19:16:28
发布于 2019-07-22 17:33:11
您可以尝试以下两种技术,甚至是两者的结合
https://datascience.stackexchange.com/questions/55949
复制相似问题