文档帮助中心文档
分类旨在分类模型的边缘
E = kfoldEdge (CVMdl)
E = kfoldEdge (CVMdl、名称、值)
例子
E= kfoldEdge (CVMdl)返回分类的优势旨在获得的分类模型CVMdl。对于每一个褶皱,kfoldEdge计算分类边缘validation-fold观察使用分类器训练training-fold观测。CVMdl.X和CVMdl.Y包含两组观察。
E= kfoldEdge (CVMdl)
E
CVMdl
kfoldEdge
CVMdl.X
CVMdl.Y
E= kfoldEdge (CVMdl,名称,值)返回指定的一个或多个分类边缘额外的选项名称参数。例如,指定要使用的折叠或指定计算分类为每个单独的褶皱边缘。
E= kfoldEdge (CVMdl,名称,值)
名称,值
全部折叠
计算k倍边缘模型训练费舍尔的虹膜数据。
加载费雪的虹膜数据集。
负载fisheriris
训练一个分类树分类器。
树= fitctree(量、种类);
旨在使用10倍交叉验证分类器。
cvtree = crossval(树);
计算k倍的优势。
边缘= kfoldEdge (cvtree)
边缘= 0.8578
计算k-fold边缘一个训练有素的费舍尔虹膜数据。
加载示例数据集。
火车100提高了分类树的合奏。
t = templateTree (“MaxNumSplits”1);%弱学习者模板树对象实体= fitcensemble(量、种类、“学习者”t);
创建一个旨在合奏实体并找到分类的优势。
实体
rng (10,“旋风”)%的再现性cvens = crossval (ens);E = kfoldEdge (cvens)
E = 3.2033
ClassificationPartitionedModel
ClassificationPartitionedEnsemble
ClassificationPartitionedGAM
旨在分区分类,指定为一个ClassificationPartitionedModel,ClassificationPartitionedEnsemble,或ClassificationPartitionedGAM对象。你可以通过两种方式创建对象:
通过训练分类模型下面的表中列出的crossval对象的功能。
crossval
训练分类模型使用一个函数中列出下表,并指定一个交叉验证函数的名称参数。
ClassificationDiscriminant
fitcdiscr
ClassificationEnsemble
fitcensemble
ClassificationGAM
fitcgam
ClassificationKNN
fitcknn
ClassificationNaiveBayes
fitcnb
ClassificationNeuralNetwork
fitcnet
ClassificationSVM
fitcsvm
ClassificationTree
fitctree
指定可选的逗号分隔条名称,值参数。的名字参数名称和吗价值相应的价值。的名字必须出现在引号。您可以指定几个名称和值对参数在任何顺序Name1, Value1,…,的家。
的名字
价值
Name1, Value1,…,的家
kfoldEdge (CVMdl“折叠”,[1 2 3 5])
折叠
1:CVMdl.KFold
褶皱指标使用,指定为一个正整数向量。的元素折叠一定范围内1来CVMdl.KFold。
1
CVMdl.KFold
在指定的软件只使用折叠折叠。
例子:“折叠”,[1 4 10]
“折叠”,[1 4 10]
数据类型:单|双
单
双
IncludeInteractions
真正的
假
标志包括交互模型,指定为真正的或假。这个论点是有效的只有一个广义相加模型(GAM)。也就是说,您可以指定这个论点只有当CVMdl是ClassificationPartitionedGAM。
默认值是真正的如果模型CVMdl(CVMdl.Trained)包含交互方面。的值必须假如果模型不包含交互方面。
CVMdl.Trained
例子:“IncludeInteractions”,假的
“IncludeInteractions”,假的
数据类型:逻辑
逻辑
模式
“平均”
“个人”
“累积”
聚合级的输出,指定为“平均”,“个人”,或“累积”。
请注意
如果你想指定这个值,CVMdl必须是一个ClassificationPartitionedEnsemble对象或ClassificationPartitionedGAM对象。
如果CVMdl是ClassificationPartitionedEnsemble,然后输出一个向量的长度分钟(CVMdl.NumTrainedPerFold)。每个元素j平均超过所有函数获得通过使用折叠乐团训练较差的学习者1:j。
分钟(CVMdl.NumTrainedPerFold)
j
1:j
如果CVMdl是ClassificationPartitionedGAM,然后输出值取决于IncludeInteractions价值。
如果IncludeInteractions是假,然后l是一个(1 +分钟(NumTrainedPerFold.PredictorTrees))1数字列向量。的第一个元素l获得平均超过所有折叠只拦截(常数)。的(j + 1)th元素l是平均获得使用截距项和第一个吗j预测树/线性项。
l
(1 +分钟(NumTrainedPerFold.PredictorTrees))
(j + 1)
如果IncludeInteractions是真正的,然后l是一个(1 +分钟(NumTrainedPerFold.InteractionTrees))1数字列向量。的第一个元素l获得平均超过所有折叠使用拦截(常数)项和所有预测树/线性项。的(j + 1)th元素l是使用截距项,平均获得的所有预测树/线性项,第一j交互树/交互项。
(1 +分钟(NumTrainedPerFold.InteractionTrees))
例子:“模式”,“个人”
“模式”,“个人”
分类的优势,作为一个数字返回标量或数字列向量。
如果模式是“平均”,然后E是所有折叠的平均分类优势。
如果模式是“个人”,然后E是一个k1数字列向量包含分类为每个褶皱边缘,在那里k是折叠的数量。
如果模式是“累积”和CVMdl是ClassificationPartitionedEnsemble,然后E是一个分钟(CVMdl.NumTrainedPerFold)1数字列向量。每个元素j平均分类优势函数获得的所有折叠和弱学习者通过使用乐团训练吗1:j。
如果模式是“累积”和CVMdl是ClassificationPartitionedGAM,然后输出值取决于IncludeInteractions价值。
如果IncludeInteractions是假,然后l是一个(1 +分钟(NumTrainedPerFold.PredictorTrees))1数字列向量。的第一个元素l平均分类获得优势都折叠,只使用拦截(常数)项。的(j + 1)th元素l平均优势获得使用截距项和第一个吗j预测树/线性项。
如果IncludeInteractions是真正的,然后l是一个(1 +分钟(NumTrainedPerFold.InteractionTrees))1数字列向量。的第一个元素l平均分类获得优势都折叠,使用拦截(常数)项和所有预测树/线性项。的(j + 1)th元素l平均优势获得使用截距项,所有预测树/线性项,第一j交互树/交互项。
的分类的优势的加权平均值吗分类的利润率。
选择在多个分类器的一种方式,例如进行特征选择,是选择收益最大的边缘的分类器。
的分类保证金二进制分类,对每个观察,真正的类的分类得分之间的差异和分类评分错误类。的分类保证金多级分类的区别是真正的类的分类评分和虚假的最大分数类。
如果相同规模的利润(即得分值是基于相同的分数转换),然后他们作为衡量分类信心。在多个分类器,那些产生更大的利润更好。
kfoldEdge计算分类对应的所述边缘边缘对象的功能。模型相关的描述,看到合适的边缘下面的表函数引用页面。
边缘
使用笔记和限制:
这个函数完全支持GPU以下旨在模型对象的金宝app数组:
系综分类器训练fitcensemble
k最近的邻居分类器训练fitcknn
金宝app支持向量机分类器训练fitcsvm
二叉决策树的多类分类培训fitctree
有关更多信息,请参见运行在GPU MATLAB函数(并行计算工具箱)。
kfoldPredict|kfoldMargin|kfoldLoss|kfoldfun|ClassificationPartitionedModel
kfoldPredict
kfoldMargin
kfoldLoss
kfoldfun
你有一个修改版的这个例子。你想打开这个例子与编辑?
你点击一个链接对应MATLAB命令:
运行该命令通过输入MATLAB命令窗口。Web浏览器不支持MATLAB命令。金宝app
选择一个网站翻译内容,看到当地事件和提供。根据你的位置,我们建议您选择:。
你也可以从下面的列表中选择一个网站:
选择中国网站(中文或英文)最佳站点的性能。其他MathWorks国家网站不优化的访问你的位置。
联系你当地的办公室