决策树

决策树,或者分类树和回归树,用来预测对数据的反应。要预测响应,从根(开始)节点一直到叶节点遵循树中的决策。叶节点包含响应。分类树给出标称的响应,例如“真正的”“假”。回归树给出数值响应。

统计和机器学习工具箱™树是二进制的。预测的每一步都要检查一个预测器(变量)的值。例如,下面是一个简单的分类树:

这棵树根据两个预测因子预测分类,x1x2。要进行预测,请从顶部节点开始,该节点由三角形(δ)表示。第一个决定是是否x1小于0.5。如果是,按照左边的分支,查看树是否将数据分类为类型0

然而,如果x1超过0.5,然后沿着右分支到达右下三角形节点。这里,树问是否x2小于0.5。如果是,那么沿着左边的分支查看树是否将数据分类为类型0。如果没有,则沿着右边的分支查看树是否将数据分类为类型1

要了解如何使用决策树准备数据进行分类或回归,请参见监督学习的步骤

火车分类树

这个例子展示了如何训练一个分类树。

创建一个分类树使用整个电离层数据集。

负载电离层%包含X和Y变量Mdl = fitctree (X, Y)
[] ClassNames: {'b' 'g'} ScoreTransform: 'none' NumObservations: 351属性,方法

火车回归树

这个例子展示了如何训练回归树。

方法中的所有观察结果创建回归树carsmall数据集,考虑马力重量向量作为预测变量,和英里/加仑向量作为响应。

负载carsmall包含马力,重量,每加仑英里数X =[马力重量];Mdl = fitrtree (X,英里/加仑)
Mdl = RegressionTree ResponseName: 'Y' CategoricalPredictors: [] ResponseTransform: 'none' NumObservations: 94属性,方法

参考文献

J. H. Friedman, R. A. Olshen, C. J. Stone。分类和回归树。博卡拉顿,佛罗里达:查普曼和霍尔,1984。

另请参阅

|||

相关的话题