在模式识别和机器学习中, Bishop 写了关于贝叶斯网络的文章:
对于概率模型的实际应用,通常是对应于图的终端节点的较高编号的变量代表观察,而较低编号的节点对应于潜在变量。潜在变量的主要作用是允许观察变量上的复杂分布用由更简单(通常是指数族)条件分布构建的模型来表示。
几行之后:
然而,概率模型中的隐藏变量不需要有任何明确的物理解释,而可以简单地引入以允许从更简单的组件构建更复杂的联合分布。
你认为他所说的这种隐藏变量是什么意思(没有物理解释)?
什么可以是一个简单的例子?
我考虑过高斯混合,但它们不对应于我们感兴趣的变量编号较高的情况。
