越来越多的决策树
默认情况下,fitctree
和fitrtree
使用标准车算法[1]创建决策树。也就是说,他们执行以下步骤:
从所有输入数据,并检查所有可能的二元分裂每个预测。
选择一个与最好的优化准则。
分裂可能导致一个子节点太少的观察(小于
MinLeafSize
参数)。为了避免这种情况,软件选择一个分裂,产生最好的优化标准的MinLeafSize
约束。
实施分割。
重复递归为两个子节点。
的解释需要两个更多的条目:描述优化准则和停止规则。
停止规则:停止分裂当有下列:
节点是纯。
分类,一个节点是纯粹的如果它只包含一个类的观察。
对于回归,一个节点是纯如果均方误差(MSE)观察到的反应这个节点的MSE低于观察响应在整个数据乘以每节点(二次错误的宽容
QuadraticErrorTolerance
参数)。
有不足
MinParentSize
观察在这个节点。任何分裂强加给这个节点产生不足的孩子
MinLeafSize
观察。该算法将
MaxNumSplits
节点。
优化准则:
回归:均方误差(MSE)。选择一个分裂的均方误差最小化预测相比,训练数据。
分类:三种措施,根据设置的
SplitCriterion
名称-值对:gdi的
(基尼的多样性指数,默认)“两个”
“异常”
有关详细信息,请参见
ClassificationTree
更多关于。
替代分裂预测选择技术,请参阅选择分割预测选择技术。
连续预测,一棵树可以分裂中间发现的任何两个相邻惟一值预测。对于一个分类预测l的水平,一个分类树需要考虑2l11将找到最优分割。或者,您可以选择一个启发式算法来找到一个好的分裂,中描述在分类树分割分类预测。
双核系统及以上,fitctree
和fitrtree
并行化使用英特尔培训决策树®线程构建块(TBB)。在英特尔TBB的详细信息,请参见https://www.intel.com/content/www/us/en/developer/tools/oneapi/onetbb.html。
引用
[1]Breiman, L。j·h·弗里德曼,r . a . Olshen和c . j .石头。分类和回归树。博卡拉顿FL:查普曼&大厅,1984。
另请参阅
fitctree
|fitrtree
|ClassificationTree
|RegressionTree