该方法是否XGBClassifier使用了两个正则化项reg_alpha和reg_lambda,或者它们是多余的并且仅在回归方法中使用(即XGBRegressor)?
我认为 XGBoost 中的某些超参数可能对特定方法(例如scale_pos_weightin XGBRegressor)没有影响。
该方法是否XGBClassifier使用了两个正则化项reg_alpha和reg_lambda,或者它们是多余的并且仅在回归方法中使用(即XGBRegressor)?
我认为 XGBoost 中的某些超参数可能对特定方法(例如scale_pos_weightin XGBRegressor)没有影响。
XGB 在分类和回归中都使用了两种正则化;每个叶子都是一个连续的分数,这些分数加在一起用于最终预测(分类案例中的对数几率),因此在任何一种设置中惩罚权重都是有意义的。
另见Light GBM 中的 L1 和 L2 正则化
但是,是的,一些超参数 ( scale_pos_weight) 似乎是退化的:
xgb 的 scale_pos_weight 参数对回归有什么作用?
https://discuss.xgboost.ai/t/scale-pos-weight-for-regression/218/10