我正在使用XGBoost进行一些实验。我将迭代次数设置为1000次,得到的结果是合理的。
而不是尝试做一些不同的事情:
我不想运行1000次迭代,而是运行100次迭代,一次this重复10次(总共1000次迭代)。在这10个步骤之间,我设置了: target_learn = target_learn - target_fitted (从前面的步骤开始)。
然后target_fitted = target_fitted +预测
Target_fitted预测是通过对所有数据集的测试集进行交叉验证而获得的。
我得到了不同的结果-非常差的准确性。
比起我跑得更远只有5次迭代做了200次...更糟的是..
我之所以尝试这样做,是因为我想在迭代过程中改变学习矩阵(尝试做一些稍微递归的事情)。
知道为什么结果会不一样吗。在我看来,每一步的第一次迭代都是不同的,所以我在模型中多次使用这种迭代,这会扼杀准确性……
其他参数相同..
或者我错过了一些完整的东西..?thx
发布于 2015-11-09 02:59:27
好的,我知道了,这里有个设置:
默认设置:'base_score':0.5
这就导致了这个问题。
https://stackoverflow.com/questions/33553136
复制相似问题