主要内容

kfoldEdge

交叉验证分类模型的分类边缘

    描述

    例子

    E= kfoldEdge (CVMdl返回分类的优势通过交叉验证的分类模型得到CVMdl.对于每一个褶皱,kfoldEdge使用在训练折叠观测数据上训练的分类器计算验证折叠观测数据的分类边缘。CVMdl。XCVMdl。Y包含两组观察结果。

    E= kfoldEdge (CVMdl名称,值返回带有由一个或多个名称-值参数指定的附加选项的分类边。例如,指定要使用的折叠或指定为每个单独的折叠计算分类边。

    例子

    全部折叠

    计算k-折叠边的Fisher虹膜数据训练的模型。

    载入费雪的虹膜数据集。

    负载fisheriris

    训练分类树分类器。

    树= fitctree(量、种类);

    使用10倍交叉验证对分类器进行交叉验证。

    cvtree = crossval(树);

    计算k倍的优势。

    边缘= kfoldEdge (cvtree)
    边缘= 0.8578

    计算在Fisher虹膜数据上训练的集合的k折边。

    加载示例数据集。

    负载fisheriris

    训练100棵增强分类树。

    t = templateTree (“MaxNumSplits”1);弱学习器模板树对象实体= fitcensemble(量、种类、“学习者”t);

    创建一个交叉验证的集成实体并找到分类边。

    rng (10,“旋风”%的再现性cvens = crossval (ens);E = kfoldEdge (cvens)
    E = 3.2033

    输入参数

    全部折叠

    交叉验证的分区分类器,指定为ClassificationPartitionedModelClassificationPartitionedEnsemble,或ClassificationPartitionedGAM对象。你可以用两种方式创建对象:

    • 将下表中列出的训练过的分类模型传递给它crossval对象的功能。

    • 使用下表中列出的函数训练分类模型,并为该函数指定一个交叉验证名称-值参数。

    名称-值对的观点

    指定可选的逗号分隔的对名称,值参数。的名字参数名和价值为对应值。的名字必须出现在引号内。可以以任意顺序指定多个名称和值对参数Name1, Value1,…,的家

    例子:kfoldEdge(CVMdl,' fold ',[1 2 3 5])指定使用第一、第二、第三和第五次折叠来计算分类边,但排除第四次折叠。

    要使用的折叠索引,指定为正整数向量。的元素折叠一定在范围之内吗1CVMdl。KFold

    该软件只使用在折叠

    例子:“折叠”,[1 4 10]

    数据类型:|

    标记以包含模型的交互术语,指定为真正的.此论证仅对广义可加模型(GAM)有效。也就是说,您只能指定此参数CVMdlClassificationPartitionedGAM

    默认值为真正的如果模型CVMdlCVMdl。训练有素的)包含交互项。该值必须为如果模型不包含交互项。

    例子:“IncludeInteractions”,假的

    数据类型:逻辑

    输出的聚合级别,指定为“平均”“个人”,或“累积”

    价值 描述
    “平均” 输出是所有折叠的标量平均值。
    “个人” 输出是一个长度向量k每个折叠包含一个值,其中k为折叠次数。
    “累积”

    请注意

    如果你想指定这个值,CVMdl必须是一个ClassificationPartitionedEnsemble对象或ClassificationPartitionedGAM对象。

    • 如果CVMdlClassificationPartitionedEnsemble,则输出是一个长度的向量分钟(CVMdl.NumTrainedPerFold).每个元素j这个函数是用弱学习者训练的集合得到的所有折线的平均值吗1: j

    • 如果CVMdlClassificationPartitionedGAM,则输出值取决于IncludeInteractions价值。

      • 如果IncludeInteractions,然后l是一个(1 +分钟(NumTrainedPerFold.PredictorTrees))-乘1数字列向量。第一个元素l是所有折叠的平均值,仅得到截距(常数)项。的(j + 1)th元素l是否使用截距项和第一项得到平均值j每个线性项的预测树。

      • 如果IncludeInteractions真正的,然后l是一个(1 +分钟(NumTrainedPerFold.InteractionTrees))-乘1数字列向量。第一个元素l是使用截距(常数)项和每个线性项的所有预测树获得的所有折叠的平均值。的(j + 1)th元素l是否使用截距项、每个线性项的所有预测树和第一个预测树获得平均值j每个交互项的交互树。

    例子:“模式”,“个人”

    输出参数

    全部折叠

    分类的优势,作为数字标量或数字列向量返回。

    • 如果模式“平均”,然后E为所有折线上的平均分类边。

    • 如果模式“个人”,然后E是一个k-乘1数字列向量,包含每个折叠的分类边,其中k为折叠次数。

    • 如果模式“累积”CVMdlClassificationPartitionedEnsemble,然后E是一个分钟(CVMdl.NumTrainedPerFold)-乘1数字列向量。每个元素j是否该函数使用弱学习器训练的集合得到的所有褶上的平均分类边1: j

    • 如果模式“累积”CVMdlClassificationPartitionedGAM,则输出值取决于IncludeInteractions价值。

      • 如果IncludeInteractions,然后l是一个(1 +分钟(NumTrainedPerFold.PredictorTrees))-乘1数字列向量。第一个元素l是仅使用截距(常数)项得到的所有折叠上的平均分类边。的(j + 1)th元素l是使用截距项和第一项得到的平均边吗j每个线性项的预测树。

      • 如果IncludeInteractions真正的,然后l是一个(1 +分钟(NumTrainedPerFold.InteractionTrees))-乘1数字列向量。第一个元素l是使用截距(常数)项和每个线性项的所有预测树获得的所有折叠上的平均分类边。的(j + 1)th元素l是使用截距项、每个线性项的所有预测树和第一项得到的平均边缘吗j每个交互项的交互树。

    更多关于

    全部折叠

    分类的优势

    分类的优势的加权平均值是多少分类的利润率

    在多个分类器中进行选择的一种方法是选择产生最大边的分类器,例如执行特征选择。

    分类保证金

    分类保证金二元分类是,对于每个观察,真实类的分类分数与虚假类的分类分数之间的差值。的分类保证金多类分类是真实类的分类分数与错误类的最大分类分数的差值。

    如果边界在相同的尺度上(即,得分值基于相同的得分转换),那么它们将作为分类置信度度量。在众多分类公司中,那些利润率更高的公司表现更好。

    算法

    kfoldEdge按照相应的方法计算分类边缘边缘对象的功能。有关特定于模型的描述,请参阅适当的边缘函数参考页下表。

    模型类型 边缘函数
    判别分析分类器 边缘
    集成分类器 边缘
    广义可加模型分类器 边缘
    k最近的邻居分类器 边缘
    朴素贝叶斯分类器 边缘
    神经网络分类器 边缘
    金宝app支持向量机分类器 边缘
    用于多类分类的二叉决策树 边缘

    扩展功能

    介绍了R2011a