改装方法和使用init_model进行训练之间有什么区别?

Refit方法的结果与基本训练模型相同。 对于实验部分,我将200k行用作训练数据,将700k行用作测试数据。

## LightGBM Base Model
lightGBM_clf = lgbm.train(params,lgbm.Dataset(x_train,label=y_train),num_boost_round=500)

y_pred_wu = lightGBM_clf.predict(x_test)
auc_value = print_result(y_test,y_pred_wu,0) ## function returning auc_values; AUC output is 0.8130

对测试数据进行调整并尝试对相同的测试数据进行预测

estimator_refit_final = deepcopy(lightGBM_clf)
estimator_refit_final.refit(data=x_test,label=y_test)
y_pred_refit_final = estimator_refit_final.predict(x_test)
auc_value = print_result(y_test,y_pred_refit_final,0) ## AUC output is 0.8130

但是,如果我使用(init_model = lightGBM_clf)重新训练测试数据;它显示了预期的AUC增益。

refit和init_model方法之间有什么区别以及为什么refit方法没有对结果进行任何更改。

alno_wang 回答:改装方法和使用init_model进行训练之间有什么区别?

暂时没有好的解决方案,如果你有好的解决方案,请发邮件至:iooj@foxmail.com
本文链接:https://www.f2er.com/2398374.html

大家都在问