templateEnsemble
整体学习模板
描述
例子
输入参数
输出参数
提示
NLearn
可以从几十到几千不等。通常,一个具有良好的预测能力需要从几百到几千弱的学习者。然而,你不需要训练一次为一个周期。您可以首先增长几十个学生,检查整体性能,然后,如果必要的话,火车更弱的学习者使用的简历
对于分类问题,或的简历
回归问题。整体性能取决于合奏和薄弱的学习者的设置。也就是说,如果您指定薄弱的学习者使用默认参数,然后合奏可以执行。因此,像合奏的设置,是一种很好的做法,薄弱的学习者使用模板的参数调整,并选择最小化泛化误差的值。
在分类问题(即
类型
是“分类”
):如果整体聚合方法(
方法
)是“包”
和:误分类代价是高度不平衡,在袋子样品,软件oversamples独特的观察从类,它有一个很大的处罚。
类先验概率是高度倾斜,软件oversamples独特的观察从类,有一个很大的先验概率。
对于小样本大小,这些组合会导致很低的相对频率out-of-bag观测的类,它有一个很大的罚款或先验概率。因此,估计out-of-bag错误是高度变量和可能很难理解。为了避免out-of-bag估计误差方差大,特别是对于小样本大小,设定一个更加平衡的误分类代价矩阵使用
成本
名称-值对参数的拟合函数,或少倾斜使用先验概率向量之前
名称-值对参数的拟合函数。因为一些输入和输出参数的顺序在训练数据对应不同的类,是一种很好的做法来指定类的顺序使用
一会
名称-值对参数的拟合函数。快速确定类的顺序,从训练数据中删除所有的观察,是保密的(即有一个失踪的标签),获取和显示数组的所有不同的类,然后指定数组
一会
。例如,假设响应变量(Y
)是一个单元阵列的标签。这个代码指定了类顺序变量一会
。Ycat =分类(Y);一会=类别(Ycat)
分类
分配<定义>
未分类的观察和类别
不包括<定义>
从它的输出。因此,如果使用这段代码单元阵列的标签分类数组或类似的代码,那么你不需要删除的观察与失踪的标签来获取不同的类的列表。指定顺序应该从lowest-represented标签项目最多,然后迅速确定类的顺序(如在前面的子弹),但安排前将由频率列表中的类列表
一会
。从之前的例子后,这段代码指定了类-项目最多的最低订单classNamesLH
。Ycat =分类(Y);一会=类别(Ycat);频率= countcats (Ycat);[~,idx] =(频率)进行排序;classNamesLH =一会(idx);
算法
整体聚合算法的细节,请参阅整体算法。
如果您指定
方法
提高算法和学习者
决策树,那么软件生长树桩默认情况下。决定树桩是一个根节点连接到两个终端,叶节点。你可以调整树深度通过指定MaxNumSplits
,MinLeafSize
,MinParentSize
名称-值对参数使用templateTree
。软件生成在袋子样品采样过密类大误分类代价采样类小误分类代价。因此,out-of-bag样本较少的观察从类大误分类代价和更多的观察类小误分类代价。如果你训练一个分类合奏使用一个小的数据集和一个高度倾斜成本矩阵,然后out-of-bag观察每个类的数量可能非常低。因此,估计out-of-bag错误可以有很大的差异,可能难以解释。同样的现象也发生类先验概率大。
RUSBoost合奏的聚合方法(
方法
),名称-值对的论点RatioToSmallest
指定抽样比例为每一个类对lowest-represented类。例如,假设有两类训练数据,一个和B。一个有100个观察和B有10个观察。同时,假设lowest-represented类米
在训练数据的观察。如果你设置
“RatioToSmallest”, 2
,然后
=年代
*米
2 * 10
=20.
。因此,软件培训每一个学习者使用20观察类一个从类和20的观察B。如果你设置‘RatioToSmallest’, (2 - 2)
,那么你将获得相同的结果。如果你设置
‘RatioToSmallest’, (2, 1)
,然后
=s1
*米
2 * 10
=20.
和
=s2
*米
1 * 10
=10
。因此,软件培训每一个学习者使用20观察类一个从类和10的观察B。
决策树的集合体,双核系统及以上,
fitcensemble
和fitrensemble
并行化训练使用英特尔®线程构建块(TBB)。在英特尔TBB的详细信息,请参见https://www.intel.com/content/www/us/en/developer/tools/oneapi/onetbb.html。
版本历史
介绍了R2014b