假设与和相关。对和y_2的嵌套回归的残差不等于对和?澄清:
我取对的回归的残差得到残差。我与回归以获得残差。为什么这些残差对和的多元回归的残差?
写在R代码中,我们会说,
lm(lm(x ~ y1)$residuals ~ y2)$residuals
不等于:
lm(x ~ y1 + y2)$residuals
我想理解这一点,因为我想逐步从因变量中提取解释变量的影响,以便我可以逐步“放大”因变量与每个后续因素的相关性。我是在 PCA 回归的背景下这样做的:
it30= 意大利收益率曲线上的 30 年点itpc1= 意大利收益率曲线的第一主成分,从到期点 1y、2y、3y、...、30y 计算。itpc2= 意大利收益率曲线的第二个主成分
我希望it30独立地与itpc1(收益率曲线水平)和itpc2(收益率曲线斜率)有关系。另一个事实是,由于 PCAitpc1和itpc2是正交的,但我认为这对于这个问题并不重要。
确实:

和:

...因此 30 年收益率曲线与itpc1和都有关系itpc2。
现在,如果我取第一个回归的残差并将它们与第二个变量回归itpc2,我希望存在一种关系,并且似乎确实存在:

所以看起来我的第一个回归的残差与第二个变量有关,正如我所料,即在考虑了第一个相关性之后,即itpc1从数据中提取,仍然存在与 PC2 相关性相关的信息. 到目前为止很有趣。
现在我想同时提取和itpc1,但我想知道采用哪种方法,因为我不明白以下内容....itpc2it30
我的问题是,为什么这种回归不是一条完美的直线?

也就是说,如果我以嵌套的方式逐步从因变量中提取相关变量,为什么残差不等于一次性提取它们的回归?
我的目标是了解每个主要成分对系列的影响程度。是的,我知道我可以使用特征向量矩阵来做到这一点,但我对上述回归行为感兴趣。
任何伴随公式的直观解释将不胜感激。



