给定相同数据的理性代理不会得出相同结论的看似悖论

机器算法验证 假设检验 悖论
2022-03-27 05:43:01

所以一天吃完一顿美味的香蕉晚餐后,你的脑海中浮现出一个想法(你是 A 人)——“如果吃香蕉能治愈癌症会怎样?”。作为一名内心的科学家,您进行了一项双盲研究,您的数据显示香蕉治愈癌症的概率至少为 99.99%。“哇!” - 你想, - “我在这里做一些重要的事情!”。你收拾好东西,匆忙前往贵国癌症研究的中央组织。“人们!”,你走进大楼时惊呼,“我找到了治愈癌症的方法!”。

他们将您引导至组织负责人(B 人)。你向他展示你的数据,他同意你根据你的数据得出的结论是正确的。“但是,你看,” - 那家伙说, - “今年我们有至少 100,000 人像你一样来找我们,报告他们用各种水果治愈癌症的发现。我们希望他们中至少有一些人有数据显示,他们治愈癌症的概率为99.99%纯属偶然。因此我不相信,你应该进一步研究。”。“所以呢?” - 你说, - “我没有做所有这些实验,我只做了一个实验,它告诉我香蕉治愈癌症的概率是 99.99%。因此我一定相信香蕉治愈癌症的概率是 99.99%。所有其他研究使用了不同的水果,

假设 A 人和 B 人都是绝对理性的,并且他们完全信任对方。一般认为,给定相同知识的两个理性主体必须得出相同的结论。在这种情况下,尽管在我看来,B 人无法告诉 A 人,这会导致 A 人接受 B 人的立场。我想会发生什么,A 人会接受 B 人确实应该持有尚不清楚香蕉是否能治愈癌症的立场。B 人会接受 A 人有理由相信香蕉治愈癌症的概率为 99.99%。

所以这对我来说似乎是一个悖论:一方面,给定相同信息的理性主体必须得出相同的结论,另一方面,我们在这里看到理性主体拥有相同的信息但得出不同的结论。您对此有任何解决方案吗?

3个回答

恐怕您会成为对(基本上是空洞的)格言“理性代理人给出相同信息必须得出相同结论”的通常误解的受害者。在这种情况下,“信息”不仅仅是“数据”。它还包括理性代理人将使用的信息处理程序。此外,它还包括偏好结构或对不确定性的态度。

假设 A 人和 B 拥有相同的数据。他们是否以相同的方式处理数据?如果没有,它们就没有“相同的信息”(并且有许多不同的方式来处理数据,都符合理性)。如果是,他们是否以同样的方式量化了做出错误推断的成本?如果不是,(并且有许多与理性兼容的“成本量化”方法——比如说,一个厌恶风险的人的理性不亚于一个风险中性的人),他们就没有“相同的信息”。如果是,它们是先验相同的(对于与手头问题相关的所有方面),这就是格言变得空洞的原因,因此不会出现悖论:在您的具体示例中,人 A 和 B 显然没有相同的信息,在这个更一般和完整的意义上。

“合理性”是最低限度的要求,主要与内部一致性有关。有许多不同的推理设置在内部是一致的,因此它们都是“理性的”——它们会得出不同的结论。

首先让我指出,您似乎对p-values的含义有一个普遍的误解。在传统的(常客)统计分析中,如果空值是真实值,则 p 值是获得与建议的空值一样远或更远的样本统计量(例如样本均值)的概率。重要的是,没有“香蕉治愈癌症的概率至少为 99.99%”之类的东西。p 值可能的事实在很大程度上并不意味着备择假设为真的概率为 99.99%(或零假设为真的概率为 0.01%)。有关此主题的更多信息,阅读此 CV 线程可能会对您有所帮助:<0.0001统计检验中p值和t值是什么意思?

话虽如此,可以断言与贝叶斯框架内的零假设相关的(主观)概率。 贝叶斯规则是: )一些数据等于数据相对于原假设的独特性(由 RHS 上的商索引)乘以您在看到相关数据之前相信原假设为真的概率。为了使这更容易,请考虑以下示例1

Pr(H0|D)=Pr(D|H0)Pr(D)Pr(H0)

乳腺摄影
某女性月刊的记者想写一篇关于乳腺癌的文章。作为她研究的一部分,她专注于将乳房 X 线摄影作为乳腺癌的指标。她想知道如果女性在常规乳房 X 光检查中检测出乳腺癌呈阳性,这究竟意味着什么。她有以下数据:
接受乳房 X 光检查的女性患乳腺癌的概率为 1%。
如果接受乳房 X 光检查的女性患有乳腺癌,她检测呈阳性的概率为 80%。
如果接受乳房 X 光检查的女性没有患乳腺癌,她检测呈阳性的概率为 10%。
接受过乳房 X 光检查的女性如果检测呈阳性,实际患乳腺癌的概率是多少?

我们怎样才能算出这个概率呢?我们必须根据检测结果呈阳性的新信息,修改接受乳房 X 光检查的女性患乳腺癌的先验概率 p(cancer),根据文本是 1% 或 p=.01。也就是说,我们正在寻找 p(cancer|positive) 的条件概率。乳腺癌阳性结果的概率 p(positive|cancer) 为 80% 或 p=.8,而没有乳腺癌的阳性结果概率 p(positive|nocancer) 为 10% 或p=.1。

因此,我们有: 0.075数据的可能概率,而只是所有单个枚举概率的总和。为了更清楚起见,我在这里对它们进行了注释。通常,可能概率的集合很难确定。在实践中,人们经常忽略替换等号,“与”成比例。)

Pr(cancer|positive)=0.800.80×0.01Pr(D) w/ cancer+0.10×0.99Pr(D) w/o cancer0.01=0.075
Pr(D)

现在在这个例子中,癌症发病率是预先知道的。为了使这个示例更像您的新研究发现示例,让我们假设没有人确切知道癌症发病率是多少,但两位不同的医生认为癌症发病率分别为 1% 和 5%。如果我们在上面的等式中使用后一个值,我们得到: 现在的概率是 29.6%,和上面的 7.5% 差别很大。那么谁是对的呢?我们真的不知道,但重要的是,两位医生都理性地相信他们(非常不同的)他们的患者患有乳腺癌的概率。

Pr(cancer|positive)=0.800.80×0.05+0.10×0.950.05=0.296
换句话说,合理的不是每个人相信的概率,而是他们根据新证据改变信念的方式。 由于两位医生都通过正确应用贝叶斯规则改变了他们的信念,因此他们都是理性的,尽管他们得出了不同的结论。他们最终没有得到相同概率的原因是因为他们事先不相信相同的概率;这就是@AlecosPapadopoulos 所说的“他们没有“相同的信息””。

1. 此示例复制自:Sedlmeier,改进统计推理,第 8-9 页。

您的问题看起来既困难又奇怪的原因是传统的统计说明不包括统计哲学。特别是对于您的问题,我们需要考虑两个规范性原则。然原则表明相同的证据应该导致等价的推论,而重复抽样原则表明我们应该根据统计方法使我们误入歧途的频率来评估它们。这两个原则都是合理的,但它们相互冲突。因此,我们最终处于您的问题可能存在的位置。

推理方法可以完全符合似然原则或重复抽样原则,但通常不能同时符合两者。理性的头脑可能不同意哪个原则更重要。

推论是由人做出的,而不是由统计算法做出的,理性的头脑可能不同意主观主义的可接受程度以及将其纳入推理考虑的机制。