主要内容

丢弃的向量金宝app

丢弃支持向量金宝app

句法

mdlout = dostupp金宝apportVectors(MDL)

描述

mdlout= dostupp金宝apportvortvector(MDL返回训练有素的线性支持向量机(SVM)回归模型金宝appmdlout,类似于受过训练的线性SVM回归模型MDL, 除了:

  • Α金宝app支持向量属性为空([])。

  • 如果您显示mdlout,该软件列出了beta属性而不是Α财产。

输入参数

展开全部

经过训练的线性SVM回归模型,指定为回归vm或者CompacTregressionsVM模型。

如果您使用非线性的内核函数训练模型(即,如果字段mdl.Kernelfunction除了“线性”),该软件返回错误。您只能丢弃线性模型的支持向量。金宝app

输出参数

展开全部

受过训练的线性SVM回归模型,返回回归vm或者CompacTregressionsVM模型。mdloutMDL

丢弃支持向量后,属性金宝appΑ金宝app支持向量是空的([])。该软件列出了属性beta在显示屏中,不列出属性Α。这预测重新提高方法使用存储的系数计算预测的响应beta财产。

例子

展开全部

该模型显示了如何通过丢弃支持向量和其他相关参数来减少受过训练的线性SVM回归模型使用的磁盘空间。金宝app

加载汽车舞数据集。指定马力重量作为预测变量(X), 和MPG作为响应变量(y)。

加载汽车舞x = [马力,重量];y = mpg;

训练线性SVM回归模型,标准化数据。显示支持向量的数量。金宝app

mdl = fitrsvm(x,y,“标准化”,true)numsv = size(mdl.s金宝appupportvectors,1)
mdl = recressionsVM预测量:{'x1'X2'}响应式:'y'分类pREDICTORS:[] RENSTERETRANSFORM:'NONNE'Alpha:[77x1 double] bias:22.9131 kernelparameters:KernelParameters:[1x1结构] MU:[1x1 struct] Mu:[109.3441 2.94441 2.94441 2.94441 2.99666625E+033+033+033] Sigma:[45.3545 805.9668] NumObservations:93 BoxConstraints:[93x1 double] ContrenceInfo:[1x1 struct] issuppor金宝apptVector:[93x1逻辑]逻辑]求解器:'Smo'属性,numsv = 77 numsv = 77

默认,FITRSVM训练线性SVM回归模型。软件列表Α在显示中。该模型有77个支持向量。金宝app

请注意,预测变量和响应变量包含几个值。训练模型时,FITRSVM将删除包含的行来自预测变量和响应数据的值。结果,训练有素的模型仅使用样本数据中包含的100个总观测值中的93个。

丢弃支持向量和其他相关参金宝app数。

mdlout = dissups金宝appupportvector(mdl)mdlout.alpha mdlout.supportvectors
mdlout = recressionsVM预测量:{'x1'X2'}响应名称:'y'分类predictors:[]响应响应式:'无''beta:[2x1 double] bias:22.9131 kernelparameters:[1x1 struct] Mu:[1x1 struct] Mu:[1x1.34441 2.93441 2.93441 2.96666225e+033+033+033+033+033] Sigma:[45.3545 805.9668] NumObservations:93 BoxConstraints:[93x1 double] ContrenceInfo:[1x1 struct] Issuppor金宝apptVector:[93x1逻辑]逻辑求解器:'Smo'smo'属性,方法'ans = [] ANS = [] ANS = [] ANS = [] ANS = []

软件列表beta在显示中而不是Α。这Α金宝app支持向量属性是空的。

比较模型的尺寸。

vars = whos('MDL',,,,'mdlout');[vars(1).bytes,vars(2).bytes]
ANS = 15004 13156

mdlout消耗的记忆少于MDL因为它不存储支持向量。金宝app

此示例显示了如何通过压实模型并丢弃支持向量来减少全面训练的SVM回归模型的内存消耗。金宝app

加载汽车舞样本数据。

加载汽车舞RNG默认%可再现性

使用线性SVM回归模型训练重量作为预测变量和MPG作为响应变量。标准化数据。

mdl = fitrsvm(重量,mpg,“标准化”,真的);

注意MPG包含几个值。训练模型时,FITRSVM将删除包含的行来自预测变量和响应数据的值。结果,训练有素的模型仅使用样本数据中包含的100个总观测值中的94个。

压缩回归模型,以丢弃培训数据以及与培训过程有关的一些信息。

compactmdl = compact(mdl);

compactmdl是一个CompacTregressionsVM具有相同参数,支持向量和相关估计的模型与金宝appMDL,但不再存储培训数据。

丢弃压实模型的支持向量和金宝app相关估计。

mdlout = dostupp金宝apportvortvectors(compactmdl);

mdlout是一个CompacTregressionsVM具有与MDLcompactmdl,但不再存储支持向量和相关估计。金宝app

比较三个SVM回归模型的大小,compactmdl,,,,MDL, 和mdlout

vars = whos(“ compactmdl',,,,'MDL',,,,'mdlout');[vars(1).bytes,vars(2).bytes,vars(3).bytes]
ANS = 3601 13727 2305

压实模型compactmdl消耗3601字节的内存,而完整模型MDL消耗13727字节的内存。该模型mdlout,这也丢弃了支持向量,消耗了2305个字节的内存。金宝app

提示

对于训练有素的线性SVM回归模型,金宝app支持向量财产是一个nSV-经过-p矩阵。nSV是支持向量的数量(最多最多是训练样金宝app本量)和p是预测变量的数量。如果任何预测因素是分类的,那么p包括说明所有分类预测指标级别所需的虚拟变量数量。这Α财产是一个向量nSV元素。

金宝app支持向量Α对于包含许多观测值或示例的复杂数据集,属性可能很大。但是,那beta财产是一个向量p元素,可能要小得多。您可以使用训练有素的SVM回归模型来预测响应值,即使您丢弃了支持向量,因为金宝app预测重新提高方法使用beta计算预测的响应。

如果训练有素的线性SVM回归模型具有许多支持向量,请使用金宝app丢弃的向量金宝app为了减少训练训练的磁盘空间,线性SVM回归模型消耗了。您可以通过输入显示支持向量矩阵的大小金宝app尺寸(mdlin.su金宝apppportvectors)

算法

预测重新提高使用公式估算响应值

F (( X = (( X s β + β 0 ,,,,

在哪里:

  • β是β值,存储为mdl.beta

  • β0是偏差值,存储为mdl.bias

  • X是培训数据。

  • s是内核比例值,存储为MDL.KernelParameters.Scale

这样,软件可以使用mdl.beta即使在丢弃支持向量之后进行预测。金宝app

版本历史记录

在R2015B中引入