MLP分类概率说明

数据挖掘 机器学习 神经网络 统计数据
2022-02-20 23:59:22

我展示了一个实施的 NN MLP 模型的一些结果。

结果,对于两个类别的分类,如果我将两只猫的概率相加,它们的总和会大于 1。

当有人问我为什么总和大于 1 时,我猜测概率代表数学中的置信度概念。

谁能告诉我我是对的吗?

1个回答

这取决于具体的模型。

如果您的模型使用 softmax 输出层,则这些值通常被解释为互斥类概率,并且总和应为 1。

如果您的模型使用 sigmoid 输出层,则分类问题的值可以解释为单独的、非排他的概率。在这种情况下,一个示例可能不在您的任何一个类中(输出接近 [0,0]),或者肯定在两个类中(输出接近 [1,1]) - 如果在您已训练 NN 进行建模的问题中并非如此,那么您可能需要考虑更改模型。

所以,如果你的分类应该是互斥的,那么问你这个问题的人是有道理的。概率总和应为 1,您可能需要修复模型。在这种情况下,您应该使用 softmax 输出层,并且不会出现这个问题,因为概率总和为 1。

是否值得修复模型,取决于您对问题中互斥类与非互斥类的理解,当前模型是否达到其目标(在实践中这不是大问题,如果模型不是严格的理论匹配问题,但具有非常好的准确性)以及更改代码和重新训练模型需要付出多少努力。

您的声明:

概率代表数学中的置信度概念。

在技​​术上是正确的,但作为您同事查询的答案没有用。对于分类,置信度概率这两个术语几乎可以互换,因此您不能真正用一个词来解释另一个词。如果有人问为什么模型中的一个数字比另一个大,您不会回答“那是因为 x 大于 y”——本质上这就是您在这里所做的。所以你的陈述本身没有错,但也没有解释结果。