2015-11-05 306 views
0

我正在使用XGBoost进行一些实验。 我设置迭代次数为1000,得到的结果 - 不无道理..XGBoost - 学习率

比我尝试做不同的事情:

而不是运行1000次迭代我想运行100次迭代,这一个重复10次(总共也有1000次迭代)。 在这十步之间我设置了: target_learn = target_learn - target_fitted(从前一步)。

和比target_fitted = target_fitted +预测

Target_fitted预测是对测试集在所有数据集增益通过交叉验证。

我得到了不同的结果 - 准确度很差。

比我走得远远跑只有5次迭代完成200次......更糟糕..

为什么我试图做到这一点,我想在迭代过程中改变学习矩阵的原因(尝试做有点经常性)。

任何想法,为什么结果是不同的...这是在我看来,在每个步骤中第一次迭代是不同的东西,所以我有这个迭代模型很多次,这是杀害acurracy ...

其他参数相同..

或者我可能缺少完整的东西..? THX

回答

0

好吧,我知道了,有设置:

默认设置: 'base_score':0.5

造成这个问题...