在处理分类和连续因变量方面,XGBoost 一直做得很好。但是,如何为 XGBoost 问题选择优化参数?
这就是我为最近的 Kaggle 问题应用参数的方式:
param <- list(  objective           = "reg:linear", 
                booster = "gbtree",
                eta                 = 0.02, # 0.06, #0.01,
                max_depth           = 10, #changed from default of 8
                subsample           = 0.5, # 0.7
                colsample_bytree    = 0.7, # 0.7
                num_parallel_tree   = 5
                # alpha = 0.0001, 
                # lambda = 1
)
clf <- xgb.train(   params              = param, 
                    data                = dtrain, 
                    nrounds             = 3000, #300, #280, #125, #250, # changed from 300
                    verbose             = 0,
                    early.stop.round    = 100,
                    watchlist           = watchlist,
                    maximize            = FALSE,
                    feval=RMPSE
)
我所做的只是随机选择(凭直觉)另一组参数来改进结果。
无论如何,我是否可以自动选择优化(最佳)参数集?
(答案可以是任何语言。我只是在寻找技巧)

