背景:
Dropout 正则化减少了神经网络中的过度拟合,尤其是深度信念网络 ( srivastava14a )。它也有机会加速学习,因为个人学习迭代在模型的简化集上。
梯度提升树(如那些 xgboost 或 gbm)以出色的集成学习器而闻名,但存在过度拟合的问题。
问题:
在 GBM 学习中是否使用了 dropout 回归的类比?
“二次采样”或“随机梯度学习”是否与此相关 - 它是否算作 dropout 回归的一个版本?
我认为随机梯度学习是关于“随机禁用输入”而不是“随机禁用单个学习者”。