文件帮助中心文件
为支持向量机(SVM)分类器寻找分类边缘金宝app
e=边缘(SVMModel、TBL、ResponseArName)
E =边缘(SVMMODEL,TBL,Y)
E =边缘(SVMMODEL,X,Y)
e=边缘(___,“重量”,重量)
E.=边缘(SVMModel那资源描述那应答器名称)返回分类边缘(E.)对于支持向量机(S金宝appVM)分类器SVMModel使用表中的预测数据资源描述和中的类标签TBL.ResponseVarName.
E.=边缘(SVMModel那资源描述那应答器名称)
E.
SVMModel
资源描述
应答器名称
TBL.ResponseVarName
分类边缘(E.)是一个标量值,表示分类边距.
E.=边缘(SVMModel那资源描述那y)返回分类边缘(E.)对于支持向量机分类器SVMModel使用表中的预测数据资源描述和中的类标签y.
E.=边缘(SVMModel那资源描述那y)
y
例子
E.=边缘(SVMModel那X那y)返回的分类边SVMModel利用矩阵中的预测数据X和中的类标签y.
E.=边缘(SVMModel那X那y)
X
E.=边缘(___那'重量'那砝码)计算中提供的观察权重的分类边砝码使用先前语法中的任何输入参数。
E.=边缘(___那'重量'那砝码)
'重量'
砝码
全部收缩
加载电离层数据集。
电离层
加载电离层rng (1);%的再现性
训练SVM分类器。指定15%的抵抗样品进行测试,将数据标准化,并指定“g”是积极的课程。
“g”
cvsvmmodel = fitcsvm(x,y,“坚持”,0.15,“类名”,{“b”那“g”},...“标准化”,真的);compactsvmmodel = cvsvmmodel.trined {1};%提取培训,紧凑型分类器testinds = test(cvsvmmodel.partition);%提取测试索引XTest=X(testInds,:);YTest=Y(testInds,:);
cvsvmmodel.是一个ClassificationededModel.分类器。它包含该物业训练,这是一个1 × 1单元格数组CompactClassificationSVM使用培训集训练的软件的分类器。
cvsvmmodel.
ClassificationededModel.
训练
CompactClassificationSVM
估计测试样品边缘。
e=边(CompactSVMModel、XTest、YTest)
e = 5.0765
测试样本的边际均值约为5。
假设一个数据集中的观测值是按顺序测量的,并且由于技术升级,最后150个观测值的质量更好。通过将质量更好的观测值比其他观测值进行加权,将这一进步结合起来。
定义一个权重向量,将质量较好的观测值乘以其他观测值的两倍。
n =尺寸(x,1);权重= [α(n-150,1); 2 * ofer(150,1)];
训练SVM分类器。指定加权方案和15%HoldOut样本进行测试。此外,标准化数据并指定该数据“g”是积极的课程。
cvsvmmodel = fitcsvm(x,y,'重量'权重,“坚持”,0.15,...“类名”,{“b”那“g”},“标准化”,真的);compactsvmmodel = cvsvmmodel.trined {1};testinds = test(cvsvmmodel.partition);%提取测试索引XTest=X(testInds,:);YTest=Y(testInds,:);wtest =权重(testinds,:);
cvsvmmodel.他是一个训练有素的人ClassificationededModel.分类器。它包含该物业训练,这是一个1 × 1单元格数组CompactClassificationSVM使用培训集训练的软件的分类器。
利用加权方案估计测试样本的加权边缘。
e=边缘(压缩模型、XTest、YTest、,'重量',wTest)
E = 4.8341.
测试样本的加权平均余量约为5。
通过比较来自多个模型的测试样本边缘来执行特征选择。仅基于此比较,具有最高边缘的分类器是最佳分类器。
将数据集划分为训练集和测试集。为测试指定15%的保持样本。
分区=cvpartition(Y,“坚持”,0.15);testInds=测试(分区);测试集的%索引XTest=X(testInds,:);YTest=Y(testInds,:);
隔断定义数据集分区。
隔断
定义这两个数据集:
富克斯包含所有预测器(除删除的栏中)。
富克斯
partx.包含最后20个预测值。
partx.
fullx = x;partx = x(:,端20:结束);
为每个预测集训练支持向量机分类器。指定分区定义。
FullCVSVMModel=fitcsvm(fullX,Y,“CVPartition”,分区);partCvsvmodel=fitcsvm(partX,Y,“CVPartition”、分区);FCSVMModel = FullCVSVMModel.Trained {1};PCSVMModel = PartCVSVMModel.Trained {1};
fullcvsvmmodel.和PartCVSVMModel是ClassificationededModel.分类器。它们包含房产训练,这是一个1 × 1单元格数组CompactClassificationSVM使用培训集训练的软件的分类器。
fullcvsvmmodel.
PartCVSVMModel
估计每个分类器的测试样本边缘。
FullEdge = Edge(FCSVMMODEL,XTEST,YTEST)
fullEdge = 2.8320
伙图=边缘(PCSVMMODEL,XTEST(:,终端20:结束),ytest)
PartEdge = 1.5539.
在完整的数据集上训练的分类器的边缘更大,说明用所有的预测器训练的分类器更好。
ClassificationSVM
SVM分类模型,指定为ClassificationSVM模型对象或CompactClassificationSVM返回的模型对象fitcsvm或紧凑的, 分别。
fitcsvm
紧凑的
示例数据,指定为表。每行资源描述对应一个观察值,每一列对应一个预测变量。可选地,资源描述可以包含响应变量和观察权重的附加列。资源描述必须包含所有用于训练的预测因子吗SVMModel.不允许使用除了字符向量的单元格阵列之外的多色变量和单元阵列。
如果资源描述包含用于训练的响应变量SVMModel,则无需指定应答器名称或y.
如果你训练有素SVMModel使用表中包含的示例数据,然后输入数据边缘也必须在桌子里。
边缘
如果你设定'标准化',真实在fitcsvm训练时SVMModel,然后软件使用中的相应方法对预测数据列进行标准化svmmodel.mu.和标准偏差svmmodel.sigma..
'标准化',真实
svmmodel.mu.
svmmodel.sigma.
数据类型:桌子
桌子
预测器数据,指定为数字矩阵。
每行X对应于一个观察(也称为实例或示例),并且每列对应于一个变量(也称为特征)。列中的变量X必须与培训的变量相同SVMModel分类器。
长度y和中的行数X必须是平等的。
如果你设定'标准化',真实在fitcsvm训练SVMModel,然后软件将X在中使用相应的方法svmmodel.mu.和标准偏差svmmodel.sigma..
数据类型:双重的|单一的
双重的
单一的
响应变量名称,指定为中变量的名称资源描述.如果资源描述包含用于训练的响应变量SVMModel,则无需指定应答器名称.
如果您指定应答器名称,则必须作为字符向量或字符串标量执行此操作TBL.答复,然后指定应答器名称作为“回应”.否则,软件将对所有列进行处理资源描述包括…在内TBL.答复作为预测因素。
TBL.答复
“回应”
响应变量必须是分类、字符或字符串数组、逻辑或数字向量或字符向量的单元格数组。如果响应变量是字符数组,则每个元素必须对应于数组中的一行。
数据类型:字符|一串
字符
一串
类标签,指定为类别、字符或字符串数组、逻辑或数字向量或字符向量的单元格数组。y必须与数据类型相同svmmodel.classnames..(该软件将字符串数组视为字符向量的单元格阵列。)
svmmodel.classnames.
长度y必须等于行的数量资源描述或行的数量X.
一个(尺寸(X,1),1)
观察权重,指定为数值向量或中变量的名称资源描述.
如果您指定砝码作为数字矢量,那么大小砝码必须等于中的行数X或资源描述.
如果您指定砝码作为变量的名称资源描述,必须将其作为字符向量或字符串标量。例如,如果权重存储为待定,然后指定砝码作为'W'.否则,软件将对所有列进行处理资源描述包括…在内待定作为预测因素。
待定
'W'
如果你提供重量,边缘计算加权分类边缘.软件对每一行的观测值进行加权X或资源描述相应的重量砝码.
例子:“权重”,“W”
“权重”,“W”
数据类型:单一的|双重的|字符|一串
这边缘的加权平均值是多少分类边距.
权重是现有的概率。如果您提供权重,则软件将它们标准化为总和在相应类中的先前概率。该软件使用重字化权重来计算加权均值。
在多个分类器中进行选择的一种方法是,例如执行特征选择,选择产生最高边缘的分类器。
这分类保证金二元分类是,对于每个观察,真实类的分类分数与虚假类的分类分数之间的差值。
该软件定义了二进制分类的分类余量
m = 2 y F ( X ) .
X是一个观察。如果真实的标签X那是积极的课程y为1,否则为-1。F(X)是观察的正面分类评分X.分类边际通常被定义为m=yF(X).
如果边际值在同一尺度上,则作为分类置信度的衡量标准。在众多分类公司中,那些利润率更高的公司表现更好。
的支持向量机分数分数用于分类观察X符号距离是多少X到决策边界,范围从-∞ 到+∞. 一个班级的正面分数表明X预计会在那个班。如果分数为负数,则表明情况并非如此。
正类分类得分 F ( X ) 是训练有素的SVM分类功能。 F ( X ) 这也是该模型的数值预测响应X或预测的分数X进入积极的课堂。
F ( X ) = ∑ j = 1 N α j y j G ( X j 那 X ) + B. 那
哪里 ( α 1 那 ... 那 α N 那 B. ) 为估计的支持向量机参数, G ( X j 那 X ) 点积在预测器空间中吗X和支持向量,和包金宝app括训练集观察值。负类分类得分X或预测的分数X进入否定类,是——F(X)。
如果G(Xj那X) =Xj'X(线性内核),那么得分功能会减少到
F ( X ) = ( X / S. ) ' β + B. .
S.是内核规模和β是拟合线性系数的矢量。
有关详细信息,请参阅理解支持向量机金宝app.
对于二元分类,该软件定义了观察裕度j那mj, 作为
m j = 2 y j F ( X j ) 那
哪里yj∊ {-1,1},和F(Xj)是预测的观察分数j积极向上的课程。然而,mj=yjF(Xj)通常用于定义边距。
[1] 克里斯蒂尼尼和J.C.肖恩·泰勒。支持向量机和基于内核的学习方法的介绍金宝app.英国剑桥:剑桥大学出版社,2000年。
此功能完全支持高阵列。金宝app有关更多信息,请参阅高阵列.
ClassificationSVM|CompactClassificationSVM|fitcsvm|Kfoldedge|损失|边缘|预测|重新提交
Kfoldedge
损失
预测
重新提交
您有此示例的修改版本。是否要用您的编辑打开此示例?
您单击了与此MATLAB命令对应的链接:
通过在MATLAB命令窗口中输入命令来运行该命令。Web浏览器不支持MATLAB命令。金宝app
选择一个网站以获取可用的翻译内容,并查看本地活动和优惠。根据您的位置,我们建议您选择:.
您还可以从以下列表中选择一个网站:
选择中国网站(以中文或英文)以获取最佳网站性能。其他MathWorks国家网站未优化您的位置。
联系当地办事处