文件帮助中心文件
用于观察的分类边距,不用于培训
m = kfoldmargin(cvmdl)
例子
m= kfoldmargin(cvmdl.)返回交叉验证的分类边距由交叉验证的二进制,线性分类模型获得cvmdl.。也就是说,对于每一个折叠,Kfoldmargin.估计分类边距,了解它在使用所有其他观察时培训它的观察结果。
m= kfoldmargin(cvmdl.)
m
cvmdl.
Kfoldmargin.
m包含包含的线性分类模型中的每个正则化强度的分类边距cvmdl.。
展开全部
分类分类线性
交叉验证,二进制,线性分类模型,指定为a分类分类线性模型对象。你可以创建一个分类分类线性模型使用FitClinear.并指定任何一个交叉验证,名称值对参数,例如,横梁。
FitClinear.
横梁
为了获得估计,kfoldmargin应用用于交叉验证线性分类模型的相同数据(X和y)。
X
y
交叉验证分类边距,作为数字矢量或矩阵返回。
m是N.-经过-L., 在哪里N.是创建的数据中的观测数量cvmdl.(看X和y) 和L.是正规化优势的数量cvmdl.(那是,numel(cvmdl.tromed {1} .lambda))。
numel(cvmdl.tromed {1} .lambda)
m(一世那j)是交叉验证的分类裕度的观察一世使用具有正则化强度的线性分类模型cvmdl.tromed {1} .lambda(j)。
m(一世那j)
一世
j
cvmdl.tromed {1} .lambda(j)
数据类型:单身的|双倍的
单身的
双倍的
加载NLP数据集。
加载nlpdata.
X是预测器数据的稀疏矩阵,以及y是类标签的分类矢量。数据中有两个以上的类。
该模型应识别网页中的单词计数是否来自统计信息和计算机学习工具箱文档。因此,识别与统计和机器学习工具箱文档网页对应的标签。
ystats = y =='统计';
交叉验证二进制,线性分类模型,可以识别文档网页中的单词是否来自统计和机器学习工具箱™文档。
RNG(1);重复性的%cvmdl = fitclinear(x,ystats,'横向'那'在');
cvmdl.是A.分类分类线性模型。默认情况下,软件实现10倍交叉验证。您可以使用使用的折叠数'kfold'名称值对参数。
'kfold'
估计交叉验证的边缘。
m = kfoldmargin(cvmdl);尺寸(m)
ans =.1×231572 1
m是31572×1矢量。m(j)是折叠式边缘的平均值进行观察j。
m(j)
绘图K.- 使用箱图的边距。
数字;boxplot(m);H = GCA;H.YLIM = [-5 30];标题('交叉验证的边距分布')
执行特征选择的一种方法是比较K.- 来自多种模型的边距。仅基于此标准,具有较大边缘的分类器是更好的分类器。
加载NLP数据集。预处理数据估计k折叠交叉验证边距。
加载nlpdata.ystats = y =='统计';x = x';
创建这两个数据集:
ullx.包含所有预测器。
ullx.
partx.包含随机选择的1/2的预测器。
partx.
RNG(1);重复性的%p =尺寸(x,1);%预测器数量halfpredidx = randsample(p,ceil(0.5 * p));fullx = x;partx = x(halfpredidx,:);
交叉验证两个二进制,线性分类模型:一个使用所有预测器的二进制分类模型,以及使用一半的预测器。使用sparsa优化目标函数,并指示观察对应于列。
cvmdl = fitClinear(Fullx,Ystats,'横向'那'在'那'求解'那'sparsa'那......'观察'那'列');pcvmdl = fitClinear(partx,Ystats,'横向'那'在'那'求解'那'sparsa'那......'观察'那'列');
cvmdl.和PCVMDL.是分类分类线性楷模。
PCVMDL.
估计K.- 针对每个分类器的边距。绘制的分布K.- 使用盒子图来设置边距。
fullmargins = kfoldmargin(cvmdl);partmargins = kfoldmargin(pcvmdl);数字;boxplot([fullmargins partmargins],'标签'那......{'所有预测因素'那'预测器的一半'});H = GCA;H.YLIM = [-30 60];标题('交叉验证的边距分布')
两个分类器的边缘的分布相似。
确定使用Logistic回归学习者的线性分类模型的良好租赁强度,比较分布K.- 折叠边距。
创建一组11个对数间隔的正则化强度 1 0. - 8. 通过 1 0. 1 。
lambda = logspace(-8,1,11);
使用5倍交叉验证交叉验证二进制,线性分类模型,并使用每个正则化强度。使用sparsa优化目标函数。降低目标函数梯度的容差1E-8。
1E-8
RNG(10);重复性的%cvmdl = fitclinear(x,ystats,'观察'那'列'那'kfold',5,......'学习者'那'逻辑'那'求解'那'sparsa'那'正规化'那'套索'那......'lambda',lambda,'gradienttolerance',1E-8)
CVMdl = ClassificationPartitionedLinear CrossValidatedModel: '线性' ResponseName: 'Y' NumObservations:31572 KFold:5分区:[1x1的cvpartition]类名:[0 1] ScoreTransform: '无' 的属性,方法
cvmdl.是A.分类分类线性模型。因为FitClinear.实现5倍交叉验证,cvmdl.包含5.分类线性软件列车在每个折叠上进行模型。
分类线性
估计K.- 针对每个正则化强度的边距。
ans =.1×231572 11.
m是每次观察的31572×11的交叉验证边缘矩阵。列对应于正则化强度。
绘图K.- 针对每个正则化强度的边距。由于Logistic回归分数在[0,1]中,因此边缘在[-1,1]中。重新归类利润,以帮助确定最大化网格上的边缘的正则化强度。
Figure Boxplot(10000. ^ m)ylabel('指数化测试样本边距')xlabel('lambda indices')
几个值lambda.屈服K.- 在10000附近压实的裕度分布。Lambda的较高值导致预测器可变稀疏性,这是一个良好的分类器质量。
lambda.
选择正常的正规化强度,以前发生在“中心”之前K.- 折叠边缘分布开始减少。
Lambdafinal = lambda(5);
使用整个数据集培训线性分类模型,并指定所需的正则化强度。
mdlfinal = fitclinear(x,ystats,'观察'那'列'那......'学习者'那'逻辑'那'求解'那'sparsa'那'正规化'那'套索'那......'lambda',兰德包);
估算新观察的标签,通过mdlfinal.和新数据到预测。
mdlfinal.
预测
这分类保证金对于二进制分类,对于每个观察,真正类别的分类分数与虚假类的分类分数之间的差异。
该软件定义了二进制分类的分类余量
m = 2 y F ( X ) 。
X是一个观察。如果是真正的标签X那是积极的课程y是1,否则为-1。F(X)是观察的正面分类评分X。分类边际通常被定义为m=yF(X)。
如果利润率在相同的范围内,则它们作为分类信心措施。在多个分类器中,产生更大的边缘的分类器更好。
对于线性分类模型,RAW分数分数分类观察X,行向量,进入正类是由
F j ( X ) = X β j + B. j 。
对于正规化强度的模型j那 β j 是系数的估计柱矢量(模型属性beta(:,j)) 和 B. j 是估计的标量偏见(模型属性偏见(j))。
beta(:,j)
偏见(j)
对分类的原始分类分数X进入负面课程是 -F(X)。该软件将观察分类为产生正得分的类。
如果线性分类模型由Logistic回归学习者组成,则该软件适用'logit'分数转换为原始分类分数(见scoretransform.)。
'logit'
scoretransform.
分类线性|分类分类线性|Kfoldedge|Kfoldpredict|利润
Kfoldedge
Kfoldpredict
利润
您有此示例的修改版本。您是否希望使用您的编辑打开此示例?
您单击了与此MATLAB命令对应的链接:
在MATLAB命令窗口中输入它来运行命令。Web浏览器不支持MATLAB命令。金宝app
选择一个网站,以便在可用的地方进行翻译的内容,并查看本地活动和优惠。根据您的位置,我们建议您选择:。
您还可以从以下列表中选择一个网站:
选择中国网站(以中文或英文)以获取最佳网站性能。其他MathWorks国家网站未优化您的位置。
联系您当地的办公室