我在随机森林/XGBoost/LightGBM上遇到任何一种迭代学习的例子,每次应用n_tree/n_estimators/num_boost_rounds时,它都会不断增加.fit()对新批数据的估计器的数量。它们中的大多数似乎依赖迭代学习来对无法同时加载到内存中的非常大的数据集进行培训。
但是,我希望实现一个持续学习管道(使用LightGBM;Python),它每天接收新的可用数据,以便更新现有模型(不需要对整个数据集进行重新培训;有状态的)。前面提到的方法将意味着我的模型将永远增加它的树数。
Is可以训练基于树的算法,使估值器(分割阈值)本身得到更新/调整,而不是只添加估计器?
https://datascience.stackexchange.com/questions/114383
复制相似问题