最近我遇到了一个叫做RidgeClassifier的模型,它将预测值 (y) 转换为 {-1,1},然后使用 Ridge Regression。在预测期间,如果 y 的值 < 0,则预测为 -1,如果 y 的值 > 0,则预测为 +1。
所以,当RidgeClassifier对某些数据集非常有效时,为什么我们不能/不能有一个叫做LinearClassifer的东西,它可以在训练期间使用 LinearRegression 并使用相同的模型进行预测?
最近我遇到了一个叫做RidgeClassifier的模型,它将预测值 (y) 转换为 {-1,1},然后使用 Ridge Regression。在预测期间,如果 y 的值 < 0,则预测为 -1,如果 y 的值 > 0,则预测为 +1。
所以,当RidgeClassifier对某些数据集非常有效时,为什么我们不能/不能有一个叫做LinearClassifer的东西,它可以在训练期间使用 LinearRegression 并使用相同的模型进行预测?
我的立场与 Frank Harrell 在您提供的链接中所写的一致,因此我不会为您提出的方法辩护;我喜欢使用概率输出。但是,没有什么能阻止您使用 OLS 回归进行建模。毕竟,岭回归中的参数(通常)计算为。的地方做这个特殊情况,你会得到通常的 OLS 方程。
如果您决心在连续统一体上进行预测,然后转换为离散类,则线性回归与岭回归一样可行。
R中的示例
set.seed(2021)
N <- 100
x <- runif(N,-2, 2)
z <- x
pr <- 1/(1 + exp(-z))
y <- rbinom(N, 1, pr)
y_alt <- 2*y - 1 # convert to +/- 1
L <- lm(y_alt ~ x)
preds <- predict(L)
现在取preds > 0asy_alt = +1和preds < 0as y_alt = -1。