主要内容

RegressionSVM类

超类:CompactRegressionSVM

金宝app支持向量机回归模型

描述

RegressionSVM是一个支持金宝app向量机(SVM)回归模型。训练RegressionSVM模型使用fitrsvm和样例数据。

RegressionSVM模型存储数据、参数值、信息支持向量,和算法实现。金宝app您可以使用这些模型:

  • 估计resubstitution预测。有关详细信息,请参见resubPredict

  • 预测新数据的值。有关详细信息,请参见预测

  • 计算resubstitution损失。有关详细信息,请参见resubLoss

  • 计算均方误差或epsilon-insensitive损失。有关详细信息,请参见损失

建设

创建一个RegressionSVM对象的使用fitrsvm

属性

全部展开

对偶问题的系数,指定为一个向量的数值。α包含元素,支持向量的个数在训练支持向量机回归金宝app模型。对偶问题为每个支持向量引入了两个拉格朗日乘数法。金宝app的值α之间的差异是两个拉格朗日乘数法估计的支持向量。金宝app更多细节,请参阅了解支持向量机回归金宝app

如果你指定删除重复使用RemoveDuplicates那么,为一组特定的重复观测的支持向量,金宝appα包含一个系数对应于整个集。也就是说,MATLAB®属性的非零系数,观察组副本和一个系数0所有其他的重复观测。

数据类型:|

原始系数线性问题,存储为一个数值向量的长度p,在那里p在支持向量机回归模型预测的数量。

中的值β线性系数的原始优化问题。

如果获得的模型使用一个内核函数以外“线性”这个属性是空的(“[]”)。

预测方法计算模型作为预测响应值YFIT = (X / S)×β+偏见,在那里年代的值是存储在内核规模KernelParameters.Scale财产。

数据类型:|

偏见的SVM回归模型、存储作为一个标量值。

数据类型:|

箱约束对偶问题α系数,存储为数字向量包含n元素,n观察的数量吗X(Mdl.NumObservations)。

双系数的绝对值α为观察不能超过BoxConstraints(我)

如果您指定删除重复使用“RemoveDuplicates”,那么对于一个给定的一组重复观察,MATLAB金额框约束,然后属性和一个观察和盒子的约束0所有其他的观察。

数据类型:|

缓存信息,存储为与以下领域的结构。

描述
“大小” 积极的标量值指示缓存大小(MB),软件储备存储格拉姆矩阵的条目。设置缓存大小使用“CacheSize”名称-值对的论点fitrsvm
“算法” 特征向量包含算法用于删除条目的名称超过能力时从缓存中。目前,唯一可用的缓存算法“队列”。你不能设置缓存算法。

数据类型:结构体

分类预测指标,指定为一个向量的正整数。CategoricalPredictors包含索引值表明相应的预测分类。索引值介于1和p,在那里p预测的数量被用来训练模型。如果所有的预测都直言,那么这个属性是空的([])。

数据类型:|

融合信息,存储为与以下领域的结构。

描述
聚合 逻辑标志指示是否算法融合。的值1表明收敛。
ReasonForConvergence 特征向量表示的标准软件用来检测融合。
差距 标量可行性双重差距和原始目标函数。
GapTolerance 标量对可行性的差距。你可以设置这个公差使用“GapTolerance”名称-值对的论点fitrsvm
DeltaGradient 标量梯度上下违规者的区别。
DeltaGradientTolerance 标量宽容的梯度差异。你可以设置这个公差使用DeltaGradientTolerance名称-值对的论点fitrsvm
LargestKKTViolation 最大标量Karush-Kuhn-Tucker(马)违反价值。
KKTTolerance 标量容忍违反最大的马。你可以设置这个公差使用“KKTTolerance”名称-值对的论点fitrsvm
历史

结构包含融合信息记录在模型训练过程中周期性间隔。这个结构包含以下字段:

  • NumIterations——迭代数组索引软件记录的收敛标准。

  • 差距- - - - - -差距在这些迭代值。

  • DeltaGradient- - - - - -DeltaGradient在这些迭代值。

  • LargestKKTViolation- - - - - -LargestKKTViolation在这些迭代值。

  • Num金宝appSupportVectors在这些迭代-支持向量的数金宝app量。

  • 客观的- - - - - -客观的在这些迭代值。

客观的 数值的双重目标。

数据类型:结构体

一半的宽度epsilon-insensitive乐队,存储为负的标量值。

数据类型:|

扩展预测名称,存储单元阵列的特征向量。

如果分类变量的模型使用的编码,那么ExpandedPredictorNames包括名称,描述变量扩展。否则,ExpandedPredictorNames是一样的PredictorNames

数据类型:细胞

梯度值在训练数据,存储为一个数值向量包含2n元素,n在训练数据的数量的观察。

元素梯度包含的梯度值α系数对应的上边界epsilon-insensitive乐队在观察最后的优化。

元素我+ NumObservations梯度包含的梯度值α系数对应的下边界epsilon-insensitive乐队在观察最后的优化。

数据类型:|

这个属性是只读的。

交叉验证优化hyperparameters,指定为一个BayesianOptimization对象或一个表hyperparameters和相关联的值。这个属性是否非空的“OptimizeHyperparameters”名称-值对参数非空的当你创建模型。的价值HyperparameterOptimizationResults取决于的设置优化器字段HyperparameterOptimizationOptions当您创建结构模型。

的价值优化器 的价值HyperparameterOptimizationResults
“bayesopt”(默认) 对象的类BayesianOptimization
“gridsearch”“randomsearch” hyperparameters表使用,观察目标函数值(交叉验证损失)和从最低(最好的)最高等级的观察(坏的)

标志指示是否一个观察是一个支持向量,存储为一个金宝appn1逻辑向量。n观察的数量吗X(见NumObservations)。的值1显示相应的观察训练数据的支持向量。金宝app

如果您指定删除重复使用RemoveDuplicates,那么对于一个给定的重复观测的支持向量,金宝appIs金宝appSupportVector只有一个标记为支持向量。金宝app

数据类型:逻辑

核函数参数,与以下字段存储为一个结构。

描述
函数 内核函数名(一个特征向量)。
规模 数字比例因子用于划分预测价值。

您可以指定值KernelParameters.FunctionKernelParameters.Scale通过使用KernelFunctionKernelScale名称-值对的论据fitrsvm,分别。

数据类型:结构体

用来训练支持向量机回归模型的参数值,存储为一个参数对象模型。访问的属性ModelParameters使用点符号。例如,访问的价值ε用于训练模型Mdl.ModelParameters.Epsilon

预测方法,存储为一个向量的数值。

如果预测是标准化的,那么μ是一个数值向量的长度p,在那里p预测的数量被用来训练模型。在这种情况下,预测方法中心预测矩阵X通过减去相应的元素μ从每一列。

如果预测不标准μ是空的(“[]”)。

如果数据包含分类预测μ这些预测的虚变量包括元素。相应的条目μ是0,因为虚变量不集中或缩放。

数据类型:|

优化日常所需的迭代次数达到收敛,存储为一个正整数的值。

设定一个限制的迭代次数,使用“IterationLimit”名称-值对的观点fitrsvm

数据类型:|

在训练数据的观察,存储为一个正整数的值。

数据类型:|

预测指标名称、存储单元阵列的特征向量包含每个指标的名称中出现的顺序XPredictorNames长度等于列数X

数据类型:细胞

预期的分数在训练集的异常值,存储为一个标量值的区间[0,1]。您可以指定使用的离群值的预期分数“OutlierFraction”名称-值对的论点fitrsvm

数据类型:

响应变量名称,存储为一个特征向量。

数据类型:字符

响应变换函数,指定为“没有”或一个函数处理。ResponseTransform描述了软件转换原始响应值。

MATLAB函数或你定义一个函数,输入函数处理。例如,您可以输入Mdl。ResponseTransform = @函数,在那里函数接受一个数字矢量的原始响应并返回一个同样大小的数值向量包含转换后的反应。

数据类型:字符|function_handle

之间的迭代次数减少有效集的优化,存储为一个非负整数的值。

你可以设置收缩时期使用“ShrinkagePeriod”名称-值对的论点fitrsvm

数据类型:|

预测标准差,存储为一个向量的数值。

如果预测是标准化的,那么σ是一个数值向量的长度p,在那里p预测的数量被用来训练模型。在这种情况下,预测尺度预测矩阵方法X每一列除以相应的元素σ后,定心每个元素使用μ

如果预测不标准σ是空的(“[]”)。

如果数据包含分类预测,σ这些预测的虚变量包括元素。相应的条目σ1,因为虚变量不集中或缩放。

数据类型:|

规划求解算法的名称用于解决优化问题,这个表中存储为一个值。

价值 描述
SMO的 序列最小优化
ISDA的 迭代的单一数据算法
“L1QP” L1 soft-margin最小化通过二次规划(需要一个优化工具箱™许可)。

金宝app支持向量,存储为一个——- - - - - -p矩阵的数值。支持向量的个数(金宝app总和(Mdl.IsS金宝appupportVector)),p预测的数量吗X

如果你指定删除重复使用RemoveDuplicates,那么对于一个给定的重复观测的支持向量,金宝app金宝appSupportVectors包含一个独特的支持向量。金宝app

数据类型:|

重量用来训练模型,观察向量包含存储为一个数字NumObservation元素的数量。fitrsvm规范化使用的重量训练,这样他们总和为1。

数据类型:|

预测的值用来训练模型,存储为一个矩阵的数值,如果模型训练在一个矩阵,或表如果模型是训练有素的桌子上。X有大小n——- - - - - -p,在那里n的行数和吗p是预测变量的数量或列在训练数据。

数据类型:||

观察到的响应值,存储为数字向量包含NumObservations元素的数量。

数据类型:|

对象的功能

紧凑的 紧凑的支持向量机金宝app回归模型
crossval 旨在支持向量机回归模型金宝app
discard金宝appSupportVectors 丢弃的支持向量金宝app
incrementalLearner 将支持向量机(S金宝appVM)回归模型增量学习
石灰 本地可model-agnostic解释(石灰)
损失 回归支持向量机回归模型误差金宝app
partialDependence 计算部分依赖
plotPartialDependence 创建部分依赖图(PDP)和个人条件期望(ICE)情节
预测 使用支持向量机回归模型预测的反应金宝app
resubLoss 支持向量机回归模型Resubstitution损金宝app失
resubPredict 支持向量机回归模型的预测resubstitution响应金宝app
的简历 恢复训练支持向量机回归模型金宝app
沙普利 沙普利值

复制语义

价值。学习如何价值类影响复制操作,明白了复制对象

例子

全部折叠

这个例子展示了如何培养一个线性支持向量机(SVM)回归模型使用示例数据存储在矩阵中金宝app。

加载carsmall数据集。

负载carsmallrng默认的%的再现性

指定马力重量作为预测变量(X),英里/加仑作为响应变量(Y)。

X =(功率、重量);Y = MPG;

火车一个线性支持向量机回归模型。

Mdl = fitrsvm (X, Y)
Mdl = RegressionSVM ResponseName:‘Y’CategoricalPredictors: [] ResponseTransform:‘没有’α:[75 x1双]偏见:57.3958 KernelParameters: [1 x1 struct] NumObservations: 93 BoxConstraints: x1双[93]ConvergenceInfo: [1 x1 struct] IsSupportVector: x1逻辑[93]解算金宝app器:SMO的属性,方法

命令窗口显示Mdl是一个培训RegressionSVM模型和其属性的列表。

检查模型的收敛性。

Mdl.ConvergenceInfo.Converged
ans =逻辑0

0表明该模型不收敛。

MdlStd = fitrsvm (X, Y,“标准化”,真正的)
MdlStd = RegressionSVM ResponseName:‘Y’CategoricalPredictors: [] ResponseTransform:‘没有’α:[77 x1双]偏见:22.9131 KernelParameters: [1 x1 struct]μ:[109.3441 - 2.9625 e + 03]σ:[45.3545 - 805.9668]NumObservations: 93 BoxConstraints: x1双[93]ConvergenceInfo: [1 x1 struct] IsSupportVector: x1逻辑[93]解算器:S金宝appMO的属性,方法

检查模型的收敛性。

MdlStd.ConvergenceInfo.Converged
ans =逻辑1

1表明该模型收敛。

计算resubstitution新模型的均方误差。

lStd = resubLoss (MdlStd)
lStd = 17.0256

训练支持向量机回金宝app归模型使用鲍鱼UCI机器学习的数据存储库。

下载数据并将其保存在当前文件夹的名字“abalone.csv”

url =“https://archive.ics.uci.edu/ml/machine-learning-databases/abalone/abalone.data”;websave (“abalone.csv”url);

读取数据到一个表中。指定变量名。

varnames = {“性”;“长度”;“直径”;“高度”;“Whole_weight”;“Shucked_weight”;“Viscera_weight”;“Shell_weight”;“戒指”};台= readtable (“abalone.csv”,“文件类型”,“文本”,“ReadVariableNames”、假);Tbl.Properties。VariableNames = varnames;

样本数据包含4177个观测。所有的预测变量是连续的除外与可能的值,这是一个类别变量“米”(男性)“F”(女性)“我”(婴儿)。我们的目标是预测环(存储在的数量)鲍鱼和确定其年龄使用物理测量。

训练支持向量机回归模型,使用高斯核函数和一个自动内核规模。标准化数据。

rng默认的%的再现性Mdl = fitrsvm(资源描述,“戒指”,“KernelFunction”,“高斯”,“KernelScale”,“汽车”,“标准化”,真正的)
Mdl = RegressionSVM PredictorNames:{“性”“长度”“直径”的“高度”“Whole_weight”“Shucked_weight”“Viscera_weight”“Shell_weight”} ResponseName:“戒指”CategoricalPredictors: 1 ResponseTransform:‘没有’α:(3635×1双)偏见:10.8144 KernelParameters: [1×1 struct]μ:[0 0 0 0.5240 0.4079 0.1395 0.8287 0.3594 0.1806 0.2388]σ:[1 1 1 0.1201 0.0992 0.0418 0.4904 0.2220 0.1096 0.1392]NumObservations: 4177 BoxConstraints:[4177×1双]ConvergenceInfo: [1×1 struct] IsSupportVector:[4177×1逻辑]解算器:SMO的属性,方法金宝app

命令窗口显示Mdl是一个培训RegressionSVM模型和显示属性列表。

显示的属性Mdl使用点符号。例如,检查确认是否聚合模型并进行了多少次迭代完成。

conv = Mdl.ConvergenceInfo.Converged
conv =逻辑1
iter = Mdl.NumIterations
iter = 2759

返回的结果表明,该模型2759次迭代后聚合。

引用

[1]纳什,j,T. L. Sellers, S. R. Talbot, A. J. Cawthorn, and W. B. Ford. "The Population Biology of Abalone (Haliotis species) in Tasmania. I. Blacklip Abalone (h . rubra从北海岸和岛屿的巴斯海峡。”年代ea Fisheries Division, Technical Report No. 48, 1994.

[2]沃,S。Cascade-Correlation扩展和基准:扩展Cascade-Correlation体系结构和前馈人工神经网络监管的基准。”塔斯马尼亚大学计算机科学论文,1995年。

[3]克拉克,D。,Z. Schreter, A. Adams. "A Quantitative Comparison of Dystal and Backpropagation." submitted to the Australian Conference on Neural Networks, 1996.

[4]Lichman, M。UCI机器学习库[http://archive.ics.uci.edu/ml]。欧文CA:加州大学学校的信息和计算机科学。

扩展功能

介绍了R2015b