主要内容

丢弃俯视普罗瓦金宝app特向量

丢弃支持向量金宝app

句法

mdlout = discard金宝appsupportVectors(MDL)

描述

mdlout.= Discard金宝appSupportVectors(mdl的)返回训练,线性支持向量机(SVM)回归模型金宝appmdlout.,类似于训练的线性SVM回归模型mdl,除了:

  • Α金宝app支持监视器属性为空([])。

  • 如果你展示mdlout.,软件列出了bet属性代替Α财产。

输入参数

展开全部

训练有素的线性SVM回归模型,指定为aRegressionSVMCompactRegressionSVM模型。

如果您使用不是线性的内核函数训练模型(即,如果是字段mdl.kernelfunction.是以外的东西'线性')时,软件返回一个错误。只能丢弃线性模型的支持向量。金宝app

输出参数

展开全部

训练有素的线性SVM回归模型,作为一个返回RegressionSVMCompactRegressionSVM模型。mdlout.是与之相同的类型mdl

在丢弃支持向量后,属性金宝appΑ金宝app支持监视器是空的([])。该软件列出了属性bet在其显示中,并没有列出属性Α.这预测重新预订方法使用存储在中的系数计算预测的响应bet财产。

例子

展开全部

这个模型展示了如何通过丢弃支持向量和其他相关参数来减少一个经过训练的线性SVM回归模型所使用的磁盘空间。金宝app

加载carsmall数据集。指定马力重量作为预测变量(X), 和MPG.作为响应变量(y)。

加载carsmallX =(功率、重量);Y = MPG;

训练线性支持向量机回归模型,标准化数据。显示支持向量个数。金宝app

mdl = fitrsvm (X, Y,“标准化”,true)numsv = size(mdl.s金宝appupportVectors,1)
mdl = regressionsvm predictornames:{'x1'x2'} racitalebame:'y'patporicalpricictors:[] respondetransform:'none'alpha:[77x1 double]偏置:22.9131内核参数:[1x1 struct] mu:[109.3441 2.9625E + 03] Sigma:[45.3545 805.9668] NumoBservations:93 BoxConstraints:[93x1 Double] ConvergenceInfo:[1x1 struct] issupp金宝apportVector:[93x1逻辑]求解器:'smo'属性,方法numsv = 77

默认情况下,fitrsvm训练线性支持向量机回归模型。软件列表Α在显示。该模型有77个支持向量。金宝app

请注意,预测器和响应变量包含几个价值观。培训模型时,fitrsvm将删除包含来自预测器和响应数据的值。结果,训练的模型仅使用样品数据中包含的100个总观察的93个。

丢弃支持向量和其他相关参金宝app数。

mdlout = discard金宝appsupportvectors(mdl)mdlout.alpha mdlout.supportVectors
mdlout = regressionsvm predictornames:{'x1''x2'} racatectename:'y'pationoricalpricictors:[] respondetransform:'none'beta:[2x1 double]偏置:22.9131内核参数:[1x1 struct] mu:[109.3441 2.9625E + 03] Sigma:[45.3545 805.9668] numobservations:93盒子混合:[93x1双] CollowGenceInfo:[1x1 struct] issupportVector:[93x1逻辑金宝app]求解器:'SMO'属性,方法ANS = [] ANS = []

软件列表bet在显示而不是Α.这Α金宝app支持监视器属性是空的。

比较模型的大小。

vars = whos(“mdl”“mdlOut”);(var (1) .bytes一样,var (2) .bytes]
Ans = 1500413156

mdlout.消耗更少的记忆mdl因为它不存储支持向量。金宝app

这个例子展示了如何通过压缩模型和丢弃支持向量来减少一个完整的、训练过的SVM回归模型的内存消耗。金宝app

加载carsmall样本数据。

加载carsmallrng默认再现性的百分比

使用线性SVM回归模型使用重量作为预测变量和MPG.作为响应变量。标准化数据。

mdl = fitrsvm(重量,英里/加仑,“标准化”,真的);

注意MPG.包含几个价值观。培训模型时,fitrsvm将删除包含来自预测器和响应数据的值。因此,经过训练的模型只使用样本数据中包含的100个总观察值中的94个。

压缩回归模型,丢弃训练数据和一些与训练过程相关的信息。

compactmdl = compact(mdl);

compactMdl是A.CompactRegressionSVM具有相同参数,支持向量和相关估计的模型金宝appmdl,但不再存储训练数据。

抛弃压缩模型的支持向量和金宝app相关估计。

mdlOut = discard金宝appSupportVectors (compactMdl);

mdlout.是A.CompactRegressionSVM与具有相同参数的模型mdlcompactMdl,但不再存储支持向量和相关估计。金宝app

比较三种SVM回归模型的大小,compactMdlmdl,mdlout.

vars = whos('compactmdl'“mdl”“mdlOut”);[vars(1).bytes,vars(2).bytes,vars(3).bytes]
ANS = 3601 13727 2305

压实的模型compactMdl消耗3601字节的内存,而完整的模型mdl消耗13727字节的内存。该模型mdlout.,它也丢弃支持向量,将消耗2305字节的内存。金宝app

提示

对于经过训练的线性支持向量机回归模型,则金宝app支持监视器物业是An.N.SV.——- - - - - -P.矩阵。N.SV.支持向量的数量(最多为训练样本大小金宝app)和P.是预测变量的个数。如果任何一个预测因素是明确的,那么P.包括帐户所需的虚拟变量数,以满足所有分类预测器级别。这Α属性是矢量N.SV.元素。

金宝app支持监视器Α对于包含许多观察或示例的复杂数据集,属性很大。但是,那bet属性是矢量P.元素,可能要小得多。您可以使用经过训练的SVM回归模型来预测响应值,即使您丢弃了支持向量,因为金宝app预测重新预订方法使用bet计算预测的响应。

如果训练的线性SVM回归模型有很多支持向量,则使用金宝app丢弃俯视普罗瓦金宝app特向量为了减少培训的线性SVM回归模型消耗的磁盘空间量。您可以通过输入显示支持向量矩阵的大小金宝app大小(mdlin.su金宝apppportVectors)

算法

预测重新预订使用公式估算响应值

F X 的) = X S. 的) β + β 0.

在哪里:

  • β是β值,存储为mdl。β

  • β0.是否将偏差值存储为mdl.bias.

  • X是培训数据。

  • S.是内核比例值,存储为mdl.kernelparameters.scale.

这样,软件才能利用的价值mdl。β即使在丢弃支持向量后仍能进行预测。金宝app

介绍了R2015b