贝叶斯风险的直观解释R ( δ, λ ) =∫ΩR ( θ , δ) λ ( θ ) dθR(δ,λ)=∫ΩR(θ,δ)λ(θ)dθ

机器算法验证 数理统计 常客 决策理论 风险
2022-03-24 04:50:22

考虑试图估计参数的风险函数 R δ(X)θ

R(θ,δ)=EXPθ[Loss(θ,δ(X)]

这可以解释为我们的估计器按数据 X 的相对频率加权的平均损失。

然后考虑贝叶斯风险:

R(δ,λ)=ΩR(θ,δ)λ(θ)dθ

其中是参数可能取的每个可能值的加权函数。λ(θ)

如何解释R(δ,λ)

让我感到困惑的是,因为我们正在整合 X 和,所以我更难解释它的含义。θ

我想的解释是这样的:

的“真实”(平均)损失为什么是真实的?好吧,因为我们使用来对我们更关心的参数赋予更高的权重。我们希望有一个总体上很好的估计器,但我们更关心一些,这取决于δλ(θ)θλ

1个回答

贝叶斯风险是在参数空间上对先验分布进行平均的频率风险。该概念将 \theta 的函数 (\theta ,转换为正数,因此允许估计量的总排序,因此对于贝叶斯估计器λθR(θ,δ)R(δ,λ)δ

δλ=argminδR(δ,λ)

与条件贝叶斯方法的联系在于,由于 Fubini 定理,贝叶斯估计量也可以通过对每个最小化后验期望损失x

ϱ(δ(x),λ)=E[L(θ,δ(x))|X=x]

正如@guy 所指出的,这个数量也有频繁的动机,其中之一是,在常规问题中,最小最大风险等于最大最小风险,方式如下:将极小极大估计量表示为“最差”贝叶斯估计量。

minδmaxθR(θ,δ)=maxλminδR(δ,λ)