负二项式的估计过度离散参数是否取决于均值

机器算法验证 估计 最大似然 负二项分布
2022-04-10 04:43:04

负二项分布可以使用均值参数化,μ, 和过度分散ψ, 使得 NB 的方差为μ+μ2ψ. 我们知道没有用于估计的解析解ψ.

我了解 NB 的方差取决于均值μ. 但是估计ψ也取决于均值。说使用 MLE 或任何其他常用方法。

2个回答

我首先要指出的是,实际上负二项式的色散参数有很多不同的估计量,而且我在这里的讨论受到我熟悉的那些估计量的限制。要回答您的问题:

在最大似然情况下——答案是肯定的。对于其他情况,答案可能是否定的。我将从讨论最大似然情况开始。不难看出,最大似然估计ψ将取决于μ. 只取关于的一阶导数ψ并注意,即使一阶导数在零处没有封闭形式的解,它的值仍然取决于μ.

另一种可以估计的方法ψ称为条件最大似然。iid Negative Binomial 数据的总和也是负二项式。可以进一步证明,总和是一个充分的统计量μ这样我们就可以形成一个精确的条件似然ψ独立的价值μ. 有关详细信息,请参阅第 4 节:

http://biostatistics.oxfordjournals.org/content/9/2/321.full.pdf+html

条件最大似然估计已被证明比最大似然估计偏差更小,而最大似然低估了真实离散度。这在直觉上是有道理的,因为就像在正常情况下一样,离散参数的最大似然估计取决于估计的均值,但没有进行调整以纠正均值是根据相同数据估计的事实。

因此,我建议在小样本问题中使用条件最大似然而不是 MLE,或者在最大似然估计上搜索一些偏差校正技术。但是对于大样本,您也可以使用最大似然估计,因为它不会产生太大的影响。

我想我通过查看 Fisher 信息矩阵的非对角线找到了答案。

P(X=x)=Γ(x+ψ)Γ(ψ)Γ(x+1)ψψμx(ψ+μ)(ψ+x)

logL=nψlogψnlogΓ(ψ)+Σi=1nlogΓ(xi+ψ)+Σi=1nxilogμΣi=1n(ψ+xi)log(ψ+μ)Σi=1nlogΓ(xi+1)

E(2μψ)=E[Σi=1n(ψ+μ)(ψ+xi)(ψ+μ)2]=0

Fisher信息矩阵的非对角线为0. 这表明两者之间没有相关性。