主要内容

kfoldEdge

交叉验证分类模型的分类边

    描述

    例子

    E= kfoldEdge (CVMdl返回分类的优势通过交叉验证的分类模型得到CVMdl.对于每一次折叠,kfoldEdge使用在训练折叠观测上训练的分类器计算验证折叠观测的分类边。CVMdl。X而且CVMdl。Y包含两组观察结果。

    E= kfoldEdge (CVMdl名称,值返回带有由一个或多个名称-值参数指定的附加选项的分类边。例如,指定要使用的折叠,或指定为每个单独的折叠计算分类边。

    例子

    全部折叠

    计算k用Fisher的虹膜数据训练的模型。

    加载费雪的虹膜数据集。

    负载fisheriris

    训练一个分类树分类器。

    树= fitctree(单位,种);

    使用10倍交叉验证交叉验证分类器。

    Cvtree = crossval(树);

    计算k倍的优势。

    edge = kfoldEdge(cvtree)
    Edge = 0.8578

    计算在Fisher虹膜数据上训练的集合的k褶边。

    加载示例数据集。

    负载fisheriris

    训练100个增强分类树的集合。

    t = templateTree(“MaxNumSplits”1);弱学习器模板树对象Ens = fitcensemble(meas,species,“学习者”t);

    创建交叉验证的集成实体找到分类边。

    rng (10,“旋风”%用于再现性Cvens =交叉val(ens);E = kfoldEdge(cvens)
    E = 3.2033

    输入参数

    全部折叠

    交叉验证的分区分类器,指定为ClassificationPartitionedModelClassificationPartitionedEnsemble,或ClassificationPartitionedGAM对象。创建对象有两种方式:

    • 将下表中列出的经过训练的分类模型传递给它crossval对象的功能。

    • 使用下表中列出的函数训练分类模型,并为该函数指定一个交叉验证的名称-值参数。

    名称-值参数

    指定可选参数对为Name1 = Value1,…,以=家,在那里的名字参数名称和价值对应的值。名称-值参数必须出现在其他参数之后,但对的顺序无关紧要。

    在R2021a之前,使用逗号分隔每个名称和值,并将其括起来的名字在报价。

    例子:kfoldEdge(cvdl,'折叠',[1 2 3 5])指定使用第一、第二、第三和第五次折叠来计算分类边,但排除第四次折叠。

    要使用的折射率,指定为正整数向量。的要素折叠必须在范围内1CVMdl。KFold

    软件只使用中指定的折叠折叠

    例子:“折叠”,[1 4 10]

    数据类型:|

    标志,以包括模型的交互术语,指定为真正的.这一论点仅对广义可加模型(GAM)有效。也就是说,您只能在以下情况下指定此参数CVMdlClassificationPartitionedGAM

    默认值为真正的如果模型CVMdlCVMdl。训练有素的)包含交互术语。取值必须为如果模型不包含交互项。

    例子:“IncludeInteractions”,假的

    数据类型:逻辑

    输出的聚合级别,指定为“平均”“个人”,或“累积”

    价值 描述
    “平均” 输出是所有折叠的标量平均值。
    “个人” 输出是一个长度向量k每次折叠包含一个值,其中k是折叠的数量。
    “累积”

    请注意

    如果你想指定这个值,CVMdl一定是ClassificationPartitionedEnsemble对象或ClassificationPartitionedGAM对象。

    • 如果CVMdlClassificationPartitionedEnsemble,则输出为长度向量分钟(CVMdl.NumTrainedPerFold).每个元素j通过使用弱学习器训练的集合,函数得到的是所有折叠的平均值吗1: j

    • 如果CVMdlClassificationPartitionedGAM,则输出值取决于IncludeInteractions价值。

      • 如果IncludeInteractions,然后l是一个(1 + min(NumTrainedPerFold.PredictorTrees))-by-1数值列向量。的第一个元素l是所有折叠的平均值,仅得到截距(常数)项。的(j + 1)的第Th元素l是否使用截距项和第一项得到平均值j每个线性项的预测树。

      • 如果IncludeInteractions真正的,然后l是一个(1 + min(NumTrainedPerFold.InteractionTrees))-by-1数值列向量。的第一个元素l是使用截距(常数)项和每个线性项的所有预测树获得的所有折叠的平均值。的(j + 1)的第Th元素l是否使用截距项、每个线性项的所有预测树和第一个预测树获得平均值j每个交互项的交互树。

    例子:“模式”,“个人”

    输出参数

    全部折叠

    分类的优势,作为数值标量或数值列向量返回。

    • 如果模式“平均”,然后E是所有折叠的平均分类边。

    • 如果模式“个人”,然后E是一个k-by-1数字列向量,包含每个折叠的分类边,其中k是折叠的数量。

    • 如果模式“累积”而且CVMdlClassificationPartitionedEnsemble,然后E是一个分钟(CVMdl.NumTrainedPerFold)-by-1数值列向量。每个元素j通过使用弱学习器训练的集合,函数获得的所有折叠的平均分类优势是什么1: j

    • 如果模式“累积”而且CVMdlClassificationPartitionedGAM,则输出值取决于IncludeInteractions价值。

      • 如果IncludeInteractions,然后l是一个(1 + min(NumTrainedPerFold.PredictorTrees))-by-1数值列向量。的第一个元素l是仅使用截距(常数)项获得的所有折叠的平均分类边。的(j + 1)的第Th元素l平均边是用截距项和第一项得到的吗j每个线性项的预测树。

      • 如果IncludeInteractions真正的,然后l是一个(1 + min(NumTrainedPerFold.InteractionTrees))-by-1数值列向量。的第一个元素l是使用截距(常数)项和每个线性项的所有预测树获得的所有折叠的平均分类优势。的(j + 1)的第Th元素l平均边是用截距项获得的,每个线性项的所有预测树,和第一个j每个交互项的交互树。

    更多关于

    全部折叠

    分类的优势

    分类的优势加权均值是分类的利润率

    在多个分类器中进行选择的一种方法,例如执行特征选择,是选择产生最大边缘的分类器。

    分类保证金

    分类保证金对于二元分类,对于每个观察,是真实类别的分类分数与虚假类别的分类分数之间的差值。的分类保证金对于多类分类是真类的分类分数与假类的最大分数之间的差值。

    如果边际值在相同的尺度上(也就是说,分数值基于相同的分数转换),那么它们可以作为分类置信度度量。在多个分类器中,利润率更高的分类器更好。

    算法

    kfoldEdge方法中所描述的计算分类边边缘对象的功能。有关特定于模型的描述,请参见相应的边缘函数参考页下表。

    模型类型 边缘函数
    判别分析分类器 边缘
    集成分类器 边缘
    广义加性模型分类器 边缘
    k-最近邻分类器 边缘
    朴素贝叶斯分类器 边缘
    神经网络分类器 边缘
    金宝app支持向量机分类器 边缘
    用于多类分类的二叉决策树 边缘

    扩展功能

    版本历史

    在R2011a中引入

    全部展开