回归决策树如何进行预测?

数据挖掘 回归 决策树
2021-10-14 20:39:38

对于分类,很明显如何使用决策树进行预测。你只需要找到最终的叶子。但是对于回归问题,考虑到要预测的变量的连续方面,如何找到预测?

2个回答

取决于实现,但常用的是一种称为 CART 的草书分区方法。该算法的工作原理如下:它为您的预测变量搜索每个不同的值,并根据两组因变量的 SSE 最小化来选择拆分。SSE 内的差异通常是实际值与样本平均值之间的差异或实际值与线性回归输出之间的差异。对于每个组,该方法将递归地拆分组内的预测值。

在实践中,该方法在满足某个样本大小阈值时停止。具有最低 SSE 的节点成为根节点。

参考:您可以在此处阅读有关基于树的回归的更多信息:基于树的回归

首先,您需要知道您尝试预测的数据类型之间的区别。两个一般类别是离散的和连续的。大多数人往往会忽略分类的核心是离散的“回归”。通过考虑基于决策的方法来预测离散变量的值,该方法最终导致找到或预测所讨论的变量。您可以调用此分类。

然而,对于连续变量,由于这些值可以具有一定的范围,因此它最接近地反映了添加误差边界的曲线拟合。我认为这应该澄清你本质上想要问的问题。