在拟合多变量回归模型之前,通常检查预测变量是否相关。
这可以通过查看相关矩阵来完成,至少对于线性效应。
简单最小二乘回归需要预测变量是独立的。
我们可以容忍小的相关性,但如果变量完全共线,问题就会变得严重。
通常会删除一些相关变量,保留最有意义的变量。
存在更复杂的替代方法,例如 PCA o 岭回归。
但这是我的问题:
如果您的模型包含交互作用,这些交互作用与其他变量非常相关。
例如,在可能与和非常相关。
如果我的模型有一个交互项(并且它在统计上对我来说很重要并且很重要)但它与一些变量非常相关......
我应该放弃它还是保留它?
如果我保留它,我将违反非相关项的回归条件。