主要内容

回归核

高斯内核回归模型使用随机特征扩展

描述

回归核是使用随机特征展开进行高斯核回归的训练模型对象。回归核对于具有大型训练集的大数据应用来说更实用,但也可以应用于适合内存的较小数据集。

与其他回归模型不同,为了节省内存使用,回归核模型对象不存储训练数据。然而,它们确实存储了诸如扩展空间的维数、核尺度参数和正则化强度等信息。

你可以使用训练回归核模型继续使用训练数据进行训练,预测对新数据的响应,并计算均方误差或不敏感损失。有关详细信息,请参见的简历预测损失

创建

创建一个回归核对象使用Fitrkernel.函数。该函数将低维空间中的数据映射到高维空间中,然后通过最小化正则化目标函数在高维空间中拟合线性模型。在高维空间中获取线性模型相当于在低维空间中将高斯核应用到模型中。可用的线性回归模型包括正则支持向量机(SVM)和最小二乘回归模型。金宝app

属性

展开全部

内核回归属性

不敏感带宽度的一半,指定为非负标量。

如果学习者不是“支持向量机”,然后ε是一个空数组([]).

数据类型:|双倍的

线性回归模型类型,指定为“leastsquares”“支持向量机”

在下表中, f x T x β + b

  • x是一个观察(行向量)来自p预测变量。

  • T · 是用于特征展开的观测值(行向量)的变换。Tx地图x在里面 p 到高维空间( ).

  • β是一个向量系数。

  • b为标量偏差。

价值 算法 损失功能 FittedLoss价值
“leastsquares” 通过普通最小二乘的线性回归 均方误差(MSE): y f x 1 2 y f x 2 '妈妈'
“支持向量机” 金宝app支持向量机回归 epsilon不敏感: y f x 最大值 0 | y f x | ε. ‘ε敏感’

扩展空间的维数,指定为正整数。

数据类型:|双倍的

核尺度参数,指定为一个正标量。

数据类型:|双倍的

方框约束,指定为正标量。

数据类型:双倍的|

正则项强度,指定为非负标量。

数据类型:|双倍的

用于拟合线性模型的损失函数,指定为‘ε敏感’'妈妈'

价值 算法 损失功能 学习者价值
‘ε敏感’ 金宝app支持向量机回归 epsilon不敏感: y f x 最大值 0 | y f x | ε. “支持向量机”
'妈妈' 通过普通最小二乘的线性回归 均方误差(MSE): y f x 1 2 y f x 2 “leastsquares”

复杂度惩罚类型,指定为'套索(L1)'“岭(L2)”

该软件由平均损失函数的总和组成最小化目标函数(见FittedLoss)以及此表中的正则化值。

价值 描述
'套索(L1)' 套索(l1)罚款: λ. j 1 p | β j |
“岭(L2)” 山脊(l2)罚款: λ. 2 j 1 p β j 2

λ.指定正则化项强度(请参见兰姆达).

该软件排除了偏差项(β0)从正规化处罚。

其他回归性质

分类预测指标,指定为一个正整数向量。分类预测器包含与包含分类预测器的预测器数据列对应的索引值。如果没有任何预测器是绝对的,则此属性为空([]).

数据类型:|双倍的

用于训练的参数回归核模型,指定为结构。

的访问字段ModelParameters使用点表示法。例如,使用Mdl.ModelParameters.BetaTolerance

数据类型:结构

预测器名称按照它们在预测器数据中的出现顺序,指定为字符向量的单元格数组。长度预测等于培训数据中用作预测器变量的列数XTBL.

数据类型:单间牢房

扩展的预测器名称,指定为字符向量的单元格数组。

如果模型对分类变量使用编码,那么ExpandedPredictorNames.包括描述扩展变量的名称。否则,ExpandedPredictorNames.预测

数据类型:单间牢房

响应变量名,指定为字符向量。

数据类型:char

应用于预测响应的响应转换函数,指定为“没有”或功能手柄。

对于内核回归模型以及在响应转换之前,对观察的预测响应x(行向量)是 f x T x β + b

  • T · 是一种对特征扩展的观察的变换。

  • β对应于Mdl.Beta

  • b对应于Mdl。偏见

对于MATLAB®函数或您定义的函数,输入其函数句柄。例如,输入mdl.responsetransform = @作用, 在哪里作用接受原始响应的数字向量,并返回大小相同的数字向量,其中包含转换后的响应。

数据类型:char|function_handle

目标函数

酸橙 局部可解释模型不可知解释(LIME)
损失 高斯核回归模型的回归损失
部分依赖 计算部分依赖
绘图竞争依赖性 创建部分依赖图(PDP)和单个条件期望图(ICE)
预测 高斯核回归模型的预测响应
的简历 高斯内核回归模型的恢复培训
沙普利 沙普利值

例子

全部崩溃

利用支持向量机训练高层阵列的核回归模型。

当您对高阵列执行计算时,Matlab®使用并行池(如果您有并行计算工具箱™)或本地MATLAB会话,则使用并行池(默认值)。要使用Parallated Computing Toolbox使用本地MATLAB会话运行示例,请使用“使用”控件“工具箱”来更改“全局执行环境”mapreduce函数。

mapreduce (0)

创建一个使用数据引用文件夹位置的数据存储。数据可以包含在单个文件、文件集合或整个文件夹中。治疗'na'值作为缺少的数据,以便数据存储取代他们值。选择要使用的变量的一个子集。在数据存储上创建一个高表。

varnames = {“ArrTime”“DepTime”“实际最短时间”};ds =数据存储('airlinesmall.csv'“TreatAsMissing”'na'...“SelectedVariableNames”, varnames);t =高(ds);

指定DepTimearttime.作为预测变量(X) 和ActualElapsedTime作为响应变量(Y).选择观察arttime.是晚于DepTime

白天= t.ArrTime > t.DepTime;Y = t.ActualElapsedTime(白天);%响应数据X=t{白天{“DepTime”“ArrTime”}};%的预测数据

标准化预测变量。

Z = zscore (X);%标准化数据

用标准化的预测器训练默认的高斯核回归模型。提取一个合适的摘要,以确定优化算法将模型与数据相匹配的程度。

(Mdl FitInfo] = fitrkernel (Z, Y)
找到6个块。|================================================================================================================================================================================================================================================================================================================================================================================================(1244)迭代求解器的解算器(1244)迭代求解器(1244)迭代求解器(1244)迭代求解器(1244)迭代求解器(1244)迭代求解器(1244)迭代求解器(1244)迭代求解器(迭代)的迭代求解器(迭代)的第二次迭代,第二次迭代,第二次迭代,第二次迭代,第二次迭代,第二次迭代(迭代)迭代,迭代,第1======取取取取取取取取取取取取取取第二==================================================================================================================取取取从从从从从中,从从从从从从从第第二次,从从从从从第一次,从从从第一第一第一次,从从从第第二次,从从从从第第第第第1.705713e+01 | 1.577301e-02 | 9.988252e-01 | LBFGS | 1/3 | 3.704022e+01 | 3.082836e-02 |1.338410 E-0 0 0 0 0 0 0 0 0 3.3 3.3 3.0 0 0 8 E-0 0 0 3.0 0 0 0 0 0 0 0 0 0 0 1.11607 7 0 E-0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 3.3 4 4 4 4 4.3.3.3.3 0 0 0 0 0 0 3.3.3.3.3 3 3 3.3 3 3 3 3 3.0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 8 8 8 8 8 8 8 8 E-0 0 0 0 0 0 0 0 0 0 0 0 E-0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 E-0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 E-0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 683757e+01 | 2.239620e-02 | 8.997877e-03 | LBFGS | 2/8 | 3.665038e+01 | 1.782358e-02 | 1.815682e-02 | LBFGS | 3/9 |3.4.7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 6 E-01 12444 4/10 12443.7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4/10 10 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4| LBFGS | 6/13 | 3.357732e+01 | 1.912644e-02 | 3.842057e-02 | LBFGS | 7/14 | 3.334081e+01 | 3.046709e-02 |6.211243 3 E-02(6.211243)6.1243个E-02(6.411243 3.1243.3.3.3.3.858 5 E-02 1246.6.411356e-02(6.411356e-02(6.411243 3.211243.211243.211243-3.1243.3.3.3.3 3.3.3.3 3 3.3 3 3.3.3.3939399 9 9 9 9 9 9 9 9+E+E+E+E+0 0 0 0 0 0 0 0 0 0 0 0 0个E+0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0个E+0个E+0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 3.3.3.3.3 3.3.3.3.3.3 3 5763E+01 | 2.545990e-02 | 7.323180e-02 | LBFGS | 12/19 | 3.183341e+01 | 2.472411e-02 | 3.689625e-02 | LBFGS |第13/20号:3.169307个“3.169307个“3.169307个”3.169307个“3.10个”3.13/20个“3.12个”3.13/20个“3.12个”3.20个“3.10个”3.13个“3.169307个“3.169307个”3个“2.064613个“2.998585555个”E-02个“12号”的第12个“12号”的第二方第二方第二方第二方第二方第二方第二方第二方第二方第二部分第7 7 7=======================================================================================第第第第第第第第第第第第第第第第第7=========礼礼礼礼礼礼礼礼礼礼礼礼第第第第第第第第第第第第第第第第第=============================================================================================LBFGS | 14/21 | 3.146896e+01 |1.78788395E-0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1.788 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 18/25 | 3.096029e+01 | 4.464104e-02 | 4.547148e-02 | LBFGS | 19/26 | 3.085475e+01 | 1.442800e-02 |1.677268e-02 | | LBFGS | 20/27 | 3.078140e+01 | 1.906548e-02 | 2.275185e-02 ||========================================================================|
Mdl = RegressionKernel PredictorNames: {'x1' 'x2'} ResponseName: 'Y' Learner: 'svm' NumExpansionDimensions: 64 KernelScale: 1 Lambda: 8.5385e-06 BoxConstraint: 1 Epsilon: 5.9303属性,方法
FitInfo=带字段的结构:Solver: 'LBFGS-tall' LossFunction: 'epsiloninsensitive' Lambda: 8.5385e-06 betaterance: 1.0000e-03 GradientTolerance: 1.0000e-05 objectivvalue: 30.7814 GradientMagnitude: 0.0191 RelativeChangeInBeta: 0.0228 FitTime: 57.7206 History: [1x1 struct]

Mdl是一个回归核模型。要检查回归误差,您可以通过Mdl以及培训数据或新数据到损失函数。或者,你可以不去Mdl和新的预测数据数据预测功能是预测对新观察的反应。你也可以通过Mdl和训练数据到的简历继续培训的职能。

FitInfo是包含优化信息的结构数组。使用FitInfo确定优化终止测量是否令人满意。

为了提高准确性,您可以增加优化迭代的最大次数(“IterationLimit”)并减小公差值('betatolerance''gradienttolerance')通过使用名称 - 值对参数Fitrkernel..这样做可以改善措施ObjectiveValueRelativeChangeInBeta在里面FitInfo.的方法也可以优化模型参数“OptimizeHyperparameters”名称-值对的论点。

恢复训练高斯核回归模型的更多迭代,以改善回归损失。

加载carbig数据集。

负载carbig

指定预测变量(X)和响应变量(Y).

X =(加速、气缸、位移、马力、重量);Y = MPG;

删除行XY其中任一数组都有值。使用值,然后传递数据Fitrkernel.可以加快培训并减少内存使用情况。

r = rmmissing([x y]);%删除缺失条目的数据x = r(:,1:5);Y = R(:,结束);

保留10%的观察结果作为阻止样本。从分区定义中提取培训和测试索引。

RNG(10)重复性的%N =长度(Y);本量利= cvpartition (N,“坚持”, 0.1);idxTrn =培训(cvp);%训练集指标idxTest =测试(cvp);%测试集指标

标准化训练数据并训练核回归模型。将迭代限制设置为5并指定“详细”,1显示诊断信息。

xtrain = x(idxtrn,:);ytrain = y(idxtrn);[ztrain,tr_mu,tr_sigma] = zscore(XTrain);将培训数据标准化tr_sigma(tr_sigma == 0)= 1;MDL = FITRKERNEL(ZTRAIN,YTRAIN,“IterationLimit”,5,'verbose'1)
|=================================================================================================================| | 解算器| | | | |通过迭代目标一步梯度相对| |总和(β~ = 0 ) | | | | | | | 级|改变β| ||=================================================================================================================| | LBFGS | 1 | 0 | 5.691016 e + 00 e + 00 | 0.000000 | 5.852758 e-02 | | 0 | | LBFGS | 1 | 1 | 5.086537 e + 00 e + 00 | 8.000000 | 5.220869 e-02 e-02 9.846711 | | 256 | | LBFGS | 1 | 2 | 3.862301 e + 00 e-01 | 5.000000 | 3.796034 e-01 e-01 | 5.998808 | 256人||lBFGS | 1 | 3 | 3.460613e+00 | 1.000000e+00 | 3.257790e-01 | 1.615091e-01 | 256 | | LBFGS | 1 | 4 | 3.136228e+00 | 1.000000e+00 | 2.832861e-02 | 8.006254e-02 | 256 | | LBFGS | 1 | 5 | 3.063978e+00 | 1.000000e+00 | 1.475038e-02 | 3.314455e-02 | 256 | |=================================================================================================================|
Mdl = RegressionKernel ResponseName: 'Y'学习者:'svm' NumExpansionDimensions: 256 KernelScale: 1 Lambda: 0.0028 BoxConstraint: 1 Epsilon: 0.8617属性,方法

Mdl是一个回归核模型。

使用培训数据列的相同均值和标准偏差标准化测试数据。估计测试集的epsilon不敏感误差。

xtest = x(iDxtest,:);ztest =(xtest-tr_mu)./ tr_sigma;%标准化测试数据欧美= Y (idxTest);L =损失(Mdl,中兴通讯,欧美,“LossFun”‘ε敏感’
L=2.0674

通过使用,继续训练模型的简历。此功能使用与培训相同的选项继续培训Mdl

UpdatedMdl =简历(Mdl Ztrain Ytrain);
|===========================================================================================================================解算器|通过|迭代|目标|步骤|梯度|和|第四方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方第第第第第第第第四方方方方方方方方第第第第第第第第第第第二方方方方方方方第第第第第第第第第第=======================================================================================================================================第第第第第第第====================================================================================第第第第第第第第第第第=====================================================================第第第第第第第第第第第第第第=================================1.475038e-02 | 256 | LBFGS | 1 | 1 | 3.007822e+00 | 8.000000e+00 | 1.391637e-02 | 2.603966e-02 | 256 | LBFGS | 1 | 2 | 2.8171E+00 |5.0亿E-0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 5 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 5 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0| 1 | 5 | 2.767821e+00 | 1.000000e+00 | 6.154419e-03 | 2.468903e-02 | 256 | LBFGS | 1 | 6 | 2.738163e+00 | 1.000000e+00|5.949.9.9.949008 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8.9 9 9 9 9 9.9 9 9 9 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8.9 9 9 9 9 9 9 9 9 9 9 9.9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 8 8 8 8 8 8 8 8 8 9 9 9 9 9 9 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 8 8 8 8 8 8 8 8 8 8 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5;2.701162e+00 | 1.000000e+00 | 5.665722e-03 | 9.401466e-03 | 256 | LBFGS | 1 | 10 | 2.695341e+00 | 5.000000e-01 |3.1161477 7 7.1161477 E-0 0 0 0 0 0 0 0 0 0 4 4 4 4.6 6 6 6 7 7 7 7 7 7 7 7 7 7 7 7 7 7 6 6 6 6 6 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 7 7 7 7 7 7 7 7 5 5 5 5 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 124; 2.688979e+00 | 1.000000e+00 | 1.416431e-02 | 6.606316e-03 | 256 | LBFGS | 1 | 14 | 2.687787e+00 | 1.000000e+00 |1.6.6.1956年1.6.1956年5.6 6.6.1956年E-3 0 0 0 0 0 0 0 5 5 5 5 5 5 5 5 5 6.6 6 6.5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5.5 5 5 5 5 5 5 5 5-3 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0亿E+1.000000e+1.000000e+0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 E+1.e+E+12 4 4 4;1.1.1.0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 E+E+E+E+12 12 12 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4;2.685021e+00 | 5.000000e-01 | 1.133144e-02 | 2.104248e-02 | 256 | LBFGS | 1 | 18 | 2.684002e+00 | 1.000000e+00 |2.838 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 7 E+0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0===============================================================================================================================================================解算器|通过|迭代|目标|阶跃|梯度|相对|和(β=0)第四方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第2.832861e-03 | 2.587726e-03 | 256 | LBFGS | 1 | 22 | 2.682682e+00 | 1.000000e+00 | 2.832861e-03 | 2.587726e-03 | 256 | LBFGS | 1 | 23|2.682424858 E-0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 2.953648e-3 2 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 E-3 E-3 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 2.8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8;256 | LBFGS | 1 | 26 | 2.681867e+00 | 5.000000e-01 | 1.031085e-03 | 3.638352e-03 | 256 | LBFGS | 1 | 27 |1.51511999 E-03 | 1.51511999 E-03 | 1.51515 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 LBFGS | 1 | 30 | 2.681594e+00 | 5.000000e-01 | 2.832861e-03 | 8.704875e-04 | 256 | LBFGS | 1 | 31 |8.498584e-03 | 3.934768e-04 | 2561244|1244よ2561244|1244|;;1244|; 4 4 4 4 4 4 4.5 5.8 8.8.8 8.8 8.8.8 8 8.8 8 8.8 8 8 8.85858484848 E-03“3”3”3 3.3.3.3.3.6 6 6 8 8 8 8 E-04 E-04 E-3 3 3 3 3 3 3 3 3 3 3.3.3.3.3.3.3.3.6 6 6 8 8 8 8 E-4 E-4 E-2004 2004 2004 2004 2004 2004 2004 2004 2004 2004 2004 2004 2004 2004 2004 2004年,4 E-4个E-4个E-4 4个E-4 4四四四四四四四四四四四四四四四四四四四四四个“256 | LBFGS | 1 | 34 | 2.681541e+00 | 5.000000e-01 | 8.498584e-03 | 6.635528e-04 | 256 | LBFGS | 1 | 35 |6.194735e-04| 6.194735 5 E-04|; 2561244||;;124|;124|;124|124|||||;;;1244 4 4 4 5.6814 14.14.14.14.14.14.14.9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0|LBFGS | 1 | 38 | 2.681469e+00 | 1.000000e+00 | 5.665722e-03 | 1.069722e-03 | 256 | LBFGS | 1 | 39 |1.28282861E-03;8.501930e-04;8.501930e-04;256124|124|124|124|124124|124124124|124124|124124|124124124124124124|124124124124124124124124124|;;)LBFGFGS124124124124124124124124124124124124124124124124124124124124124124124124|;;;)))LBfffffffffffffffffffffffffffFGFG124124124124124124124124124124124124124124================================================解算器|通过|迭代|目标|步长|梯度|相对|和(beta~=0)第四方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第E+00 | 2.832861e-03 | 8.763251e-04 | 256 | LBFGS | 1 | 42 | 2.681413e+00 | 5.000000e-01 | 2.832861e-03 | 4.101888e-04 | 256 | LBFGS | 1 | 43|2.6.7 7 7.7 7 7 9 E-04よ2.7 7.7 7 9 E-04よ256よ1244よ12441244|1244よ;1244|; 2.6.6.6.3 3 3 3 3.3 3 3 3 3 3.3 E+3 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 256 | LBFGS | 1 | 46 | 2.681374e+00|1。000000e+00 | 8.498584e-03 | 5.771001e-04 | 256 | | LBFGS | 1 | 47 | 2.681353e+00 | 1.000000e+00 | 2.832861e-03 | 3.160871e-04 | 256 | | LBFGS | 1 | 48 | 2.681334e+00 | 5.000000e-01 | 8.498584e-03 | 1.045502e-03 | 256 | | LBFGS | 1 | 49 | 2.681314e+00 | 1.000000e+00 | 7.878714e-04 | 1.505118e-03 | 256 | | LBFGS | 1 | 50 | 2.681306e+00 | 1.000000e+00 | 2.832861e-03 | 4.756894e-04 | 256 | | LBFGS | 1 | 51 | 2.681301e+00 | 1.000000e+00 | 1.133144e-02 | 3.664873e-04 | 256 | | LBFGS | 1 | 52 | 2.681288e+00 | 1.000000e+00 | 2.832861e-03 | 1.449821e-04 | 256 | | LBFGS | 1 | 53 | 2.681287e+00 | 2.500000e-01 | 1.699717e-02 | 2.357176e-04 | 256 | | LBFGS | 1 | 54 | 2.681282e+00 | 1.000000e+00 | 5.665722e-03 | 2.046663e-04 | 256 | | LBFGS | 1 | 55 | 2.681278e+00 | 1.000000e+00 | 2.832861e-03 | 2.546349e-04 | 256 | | LBFGS | 1 | 56 | 2.681276e+00 | 2.500000e-01 | 1.307940e-03 | 1.966786e-04 | 256 | | LBFGS | 1 | 57 | 2.681274e+00 | 5.000000e-01 | 1.416431e-02 | 1.005310e-04 | 256 | | LBFGS | 1 | 58 | 2.681271e+00 | 5.000000e-01 | 1.118892e-03 | 1.147324e-04 | 256 | | LBFGS | 1 | 59 | 2.681269e+00 | 1.000000e+00 | 2.832861e-03 | 1.332914e-04 | 256 | | LBFGS | 1 | 60 | 2.681268e+00 | 2.500000e-01 | 1.132045e-03 | 5.441369e-05 | 256 | |=================================================================================================================|

使用更新的模型估算测试集的epsilon - 不敏感误差。

UpdatedL =损失(UpdatedMdl,中兴通讯,欧美,“LossFun”‘ε敏感’
UpdatedL=1.8933

回归误差减少了大约一倍0.08的简历使用更多的迭代更新回归模型。

介绍了R2018a