主要内容

越来越多的决策树

默认情况下,fitctreefitrtree使用标准车算法[1]创建决策树。也就是说,他们执行以下步骤:

  1. 从所有输入数据,并检查所有可能的二元分裂每个预测。

  2. 选择一个与最好的优化准则。

    • 分裂可能导致一个子节点太少的观察(小于MinLeafSize参数)。为了避免这种情况,软件选择一个分裂,产生最好的优化标准的MinLeafSize约束。

  3. 实施分割。

  4. 重复递归为两个子节点。

的解释需要两个更多的条目:描述优化准则和停止规则。

停止规则:停止分裂当有下列:

  • 节点是

    • 分类,一个节点是纯粹的如果它只包含一个类的观察。

    • 对于回归,一个节点是纯如果均方误差(MSE)观察到的反应这个节点的MSE低于观察响应在整个数据乘以每节点(二次错误的宽容QuadraticErrorTolerance参数)。

  • 有不足MinParentSize观察在这个节点。

  • 任何分裂强加给这个节点产生不足的孩子MinLeafSize观察。

  • 该算法将MaxNumSplits节点。

优化准则:

  • 回归:均方误差(MSE)。选择一个分裂的均方误差最小化预测相比,训练数据。

  • 分类:三种措施,根据设置的SplitCriterion名称-值对:

    • gdi的(基尼的多样性指数,默认)

    • “两个”

    • “异常”

    有关详细信息,请参见ClassificationTree更多关于

替代分裂预测选择技术,请参阅选择分割预测选择技术

连续预测,一棵树可以分裂中间发现的任何两个相邻惟一值预测。对于一个分类预测l的水平,一个分类树需要考虑2l11将找到最优分割。或者,您可以选择一个启发式算法来找到一个好的分裂,中描述在分类树分割分类预测

双核系统及以上,fitctreefitrtree并行化使用英特尔培训决策树®线程构建块(TBB)。在英特尔TBB的详细信息,请参见https://www.intel.com/content/www/us/en/developer/tools/oneapi/onetbb.html

引用

[1]Breiman, L。j·h·弗里德曼,r . a . Olshen和c . j .石头。分类和回归树。博卡拉顿FL:查普曼&大厅,1984。

另请参阅

|||

相关的话题