辛普森效应是理解医学研究中潜在陷阱的关键,特别是在荟萃分析领域,将采用不同方法的多项研究结合在一起,为一个问题提供更明确的答案。报告的案例倾向于处理由于“潜伏”变量或被忽略的混杂因素(通常是不同的组大小)而发生变化的计数表和比率。然而,从概念上看连续案例来理解它是很有趣的。
不出所料,有很多帖子涉及到这个问题,但希望这篇问答帖子能提供一些讨论或入门级的直觉,与任何更具体的问题无关。为了研究悖论,构成荟萃分析的不同研究被视为混合模型中的随机效应。
辛普森效应是理解医学研究中潜在陷阱的关键,特别是在荟萃分析领域,将采用不同方法的多项研究结合在一起,为一个问题提供更明确的答案。报告的案例倾向于处理由于“潜伏”变量或被忽略的混杂因素(通常是不同的组大小)而发生变化的计数表和比率。然而,从概念上看连续案例来理解它是很有趣的。
不出所料,有很多帖子涉及到这个问题,但希望这篇问答帖子能提供一些讨论或入门级的直觉,与任何更具体的问题无关。为了研究悖论,构成荟萃分析的不同研究被视为混合模型中的随机效应。
在辛普森悖论中,两个变量之间相关性的符号反转,或者等效地,由于未解释的混杂变量,回归系数(斜率)的符号发生翻转。
在下图中,我们正在研究血液中虚构的生化标记(“标记 X”)与血液测试中的二级水平(“标记 Y”)之间的关系。我们正在汇集来自四项不同研究的数据。最初,我们着眼于“成功的”荟萃分析,最终将其与辛普森悖论抬头的场景进行对比。
场景一:
随着数据的聚合,我们最终得到了一个最好建模为具有随机效应的混合模型的情况,解释了不同研究(单位效应)之间的可变性,形式为与对应于通过数据云的拟合线的截距,用于每个单独的研究。该模型解释了数据中可能存在大量离散的原因。这是它的样子(代码):
每个研究的数据在左边的图上用颜色编码,在右边汇总。这种情况并不理想,因为来自不同数据集的值存在相当大的差异。该研究可能更有可能以如下方式发表和引用:
研究之间的完美重叠,普通最小二乘 (OLS) 拟合可能比具有随机效应的混合模型更好。
然而,在任何一种情况下,过度分散的存在都不会增加混杂变量的可能性。
另一方面...
场景二:
...我们可以在数据云中遇到一个经常绘制的分布,这样拟合具有混合效应的线性回归最终会为每个单独的研究提供负(或正)斜率,仅在数据聚合时反转符号:
这就是辛普森效应。
如果我们查看这些图后面数据中的结果,每个cor(y,x)子组-0.238的 -0.302然而,当汇总数据时,综合相关性为0.473. 自然,回归斜率的符号也相反。值得注意的是,具有随机相交的混合效应回归是比 OLS 在聚合数据上更好的模型。
已经在图上,人们可以有一种直觉,即数据不仅是分散的,而且是沿着轴拉伸的,恰好是由一个未知的“潜伏”变量,这可能不会立即显现出来。这可以通过查看每个子组的变量和之间的相关性并将其与场景 1 进行对比来客观化。从图形上看,
在辛普森效应的情况下(场景 2),值越高,越高(左图),与场景 1(右图)中缺乏相关性相反。在第一种情况下,和之间的相关性在进行回归时具有统计学上显着的 ( )斜率。相比之下,场景 1 中和之间的相关性为.0.7876p -> 00
一个后续问题是哪种类型的临床情景可能遵循这种模式(情景 2)?