主要内容

预测

使用的袋装决策树预测反应

语法

Yfit =预测(B, X)
Yfit =预测(B, X,名称,值)
[Yfit,方差]=预测(___)
[Yfit,分数]=预测(___)
[Yfit,分数,方差)=预测(___)

描述

Yfit =预测(B, X)返回一个向量的预测反应的预测数据表或矩阵X基于紧凑的袋装决策树BYfit是一个单元阵列特征向量的分类和回归的数字数组。默认情况下,预测需要一个民主(nonweighted)平均投票中所有的树木。

B是一个培训CompactTreeBagger模型对象,返回的一个模型紧凑的

X是一个表或矩阵的预测数据用于生成响应。行代表观察和列代表变量。

  • 如果X是一个数字矩阵:

    • 变量的列X必须有相同的订单预测变量,训练吗B

    • 如果你训练B使用一个表(例如,资源描述),然后X可以是一个数字矩阵如果资源描述包含所有数值预测变量。将数值预测资源描述分类在训练、识别分类预测使用CategoricalPredictors名称-值对论点的TreeBagger函数。如果资源描述包含了异构预测变量(例如,数字和分类数据类型)X是一个数字矩阵,然后呢预测抛出一个错误。

  • 如果X是一个表:

    • 预测不支持多列变量或细金宝app胞数组以外的细胞阵列的特征向量。

    • 如果你训练B使用一个表(例如,资源描述),那么所有的预测变量X必须有相同的变量名和数据类型相同的训练B(存储在B.PredictorNames)。然而,列的顺序X不需要对应的列顺序资源描述资源描述X可以包含额外的变量(响应变量,观察体重、等等),但预测忽略了它们。

    • 如果你训练B使用一个数字矩阵,然后预测名称B.PredictorNames和相应的预测变量名称X必须相同。指定预测名称在训练,看到PredictorNames名称-值对的观点TreeBagger。所有的预测变量X必须是数值向量。X可以包含额外的变量(响应变量,观察体重、等等),但预测忽略了它们。

Yfit =预测(B, X,名称,值)使用一个或多个指定附加选项名称-值对参数:

  • “树”-树索引数组用于计算的反应。默认值是“所有”

  • “TreeWeights”数组的NTrees从指定的树,权重加权投票NTrees是树木的数量。

  • “UseInstanceForTree”-逻辑矩阵的大小脑袋——- - - - - -NTrees表示使用哪个树为每个观察,作出预测脑袋是观测的数量。默认情况下所有树木用于观察。

对于回归,[Yfit,方差]=预测(___)也收益标准差的计算反应的合奏种植树木使用任何输入参数组合在以前的语法。

的分类,[Yfit,分数]=预测(___)也为所有类返回分数。分数是一个矩阵,一行每观察和一列类。对于每一个观察和每个类,每棵树生成的得分的概率是观察来自类,计算分数的观察类的树叶。预测平均这些分数在合奏中所有的树木。

[Yfit,分数,方差)=预测(___)也收益标准差计算分数的分类。方差是一个矩阵,一行每观察和一列类,与标准差接管的合奏种植树木。

算法

  • 回归问题,预测反应的观察是加权平均的预测只使用选定的树木。也就是说,

    y ^ = 1 t = 1 T α t ( t 年代 ) t = 1 T α t y ^ t ( t 年代 )

    • y ^ t 从树的预测吗t在合奏。

    • 年代是选树组成的组指数预测(看到了吗UseInstanceForTree)。 ( t 年代 ) 是1,如果t在设置年代,否则和0。

    • αt树的重量吗t(见TreeWeights)。

  • 对于分类问题,预测类是类的观察意见,这使得收益率最大的类的后验概率加权平均值(即。、分类分数)计算使用选定的树木。也就是说,

    1. 为每一个类cC,每棵树t= 1,…,T,预测计算 P ^ t ( c | x ) ,估计后验概率的类c鉴于观察x使用树tC所有不同的类的集合在训练数据。分类树后验概率的更多细节,请参阅fitctree预测

    2. 预测计算类的加权平均后验概率选择的树。

      P ^ ( c | x ) = 1 t = 1 T α t ( t 年代 ) t = 1 T α t P ^ t ( c | x ) ( t 年代 )

    3. 预测的类的类产量最大的加权平均。

    y ^ = 参数 马克斯 c C { P ^ ( c | x ) }