templateLinear
线性分类学习者模板
描述
templateLinear创建一个模板适用于拟合线性分类模型为多级高维数据的问题。
模板指定了二进制学习者模型,正则化类型和强度,解算器,等等。在创建模板,通过模板训练模型和数据fitcecoc。
例子
火车多级线性分类模型
火车一个ECOC模型由多个二进制,线性分类模型。
加载NLP数据集。
负载nlpdata
X是一个稀疏矩阵的预测数据,Y是一个分类向量类的标签。有两个以上的类的数据。
创建一个默认linear-classification-model模板。
t = templateLinear ();
调整默认值,请参阅名称-值对的观点在templateLinear页面。
火车一个ECOC模型由多个二进制,线性分类模型,可以确定产品的频率分布文档web页面的文字。为更快的训练时间,转置的预测数据,指定观察对应列。
X = X ';rng (1);%的再现性Mdl = fitcecoc (X, Y,“学习者”t“ObservationsIn”,“列”)
Mdl = CompactClassificationECOC ResponseName:“Y”类名:[通讯dsp是定点hdlcoder阶段性physmod仿真软件统计supportpkg象征性视觉xpc] ScoreTrans金宝appform:“没有一个金宝app”BinaryLearners: {78} x1细胞CodingMatrix: 13 x78双重属性,方法
或者,您可以训练一个ECOC模型组成的默认使用线性分类模型“学习者”,“线性”。
为了节省内存,fitcecoc返回训练ECOC模型组成的线性分类学习者CompactClassificationECOC模型对象。
输入参数
名称-值参数
指定可选的双参数作为Name1 = Value1,…,以=家,在那里的名字参数名称和吗价值相应的价值。名称-值参数必须出现在其他参数,但对的顺序无关紧要。
R2021a之前,用逗号来分隔每一个名称和值,并附上的名字在报价。
例子:“学习者”,“物流”、“正规化”,“套索”、“CrossVal”,“上”指定实现套索惩罚逻辑回归,并实现10倍交叉验证。
线性分类选项
λ- - - - - -正则化项的力量
“汽车”
(默认)|负的标量|向量的非负价值
正则化项,指定为逗号分隔组成的“λ”和“汽车”、非负标量或矢量非负的值。
为“汽车”,λ= 1 /n。
如果你指定一个交叉验证,名称-值对参数(例如,CrossVal),然后n的数量的观察。
否则,n是训练样本大小。
一个向量的非负价值,templateLinear按顺序优化的目标函数为每个不同的价值λ以升序排序。
如果解算器是“sgd”或“asgd”和正则化是“套索”,templateLinear不使用前面的系数估计作为一个吗温暖的开始在接下来的优化迭代。否则,templateLinear使用温暖的开始。
如果正则化是“套索”,那么任何系数估计的0时保留其价值templateLinear优化使用后续值λ。
templateLinear回归系数估计为每个指定的正则化的力量。
例子:“λ”,10 ^ (- (10:2:2))
数据类型:字符|字符串|双|单
学习者- - - - - -线性分类模型类型
“支持向量机”
(默认)|“物流”
线性分类模型类型,指定为逗号分隔组成的“学习者”和“支持向量机”或“物流”。
在这个表中,
β是一个向量的p系数。
x是一个观察从p预测变量。
b是标量的偏见。
价值
算法
响应范围
损失函数
“支持向量机”
金宝app支持向量机
y∊{1};1为正类和1
铰链:
“物流”
逻辑回归
一样“支持向量机”
异常(物流):
例子:“学习者”,“物流”
正则化- - - - - -复杂性处罚类型
“套索”
|“岭”
复杂性处罚类型,指定为逗号分隔组成的“正规化”和“套索”或“岭”。
软件组成的目标函数最小化的平均损失函数(见的总和学习者在这表)和正则化项。
价值
描述
“套索”
套索(L1)罚款:
“岭”
脊(L2)罚款:
指定正则化项力量,这是λ的表达式,使用λ。
软件不包括偏差项(β0从正则化处罚)。
如果解算器是“sparsa”的默认值正则化是“套索”。否则,默认值是“岭”。
提示
为预测变量选择,指定“套索”。更多变量选择,明白了介绍了特征选择。
对于优化精度,指定“岭”。
例子:“正规化”、“套索”
解算器- - - - - -目标函数极小化技术
“sgd”
|“asgd”
|“双重”
|“蓄热”|“lbfgs”|“sparsa”|字符串数组|单元阵列的特征向量
目标函数最小化技术,指定为逗号分隔组成的“规划求解”和特征向量或字符串标量字符串数组或单元阵列特征向量的值从这个表。
价值
描述
限制
“sgd”
随机梯度下降法(SGD)[4][2]
“asgd”
平均随机梯度下降法(ASGD)[7]
“双重”
双重SGD对支持向量机[1][6]
正则化
必须“岭”和学习者必须“支持向量机”。
“蓄热”
Broyden-Fletcher-Goldfarb-Shanno拟牛顿算法(高炉煤气)[3]
效率低下,如果X非常高维。
“lbfgs”
内存有限bfg (LBFGS)[3]
正则化必须“岭”。
“sparsa”
通过分离变量近似稀疏重建(SpaRSA)[5]
正则化必须“套索”。
如果你指定:
山脊处罚(见正则化)和预测数据集包含100个或更少的预测变量,那么默认的能手“蓄热”。
一个支持向量机模型(见学习者)、脊的点球和预测数据集包含100多个预测变量,那么默认的能手“双重”。
套索点球和预测数据集包含100个或更少的预测变量,然后默认解决“sparsa”。
否则,默认的能手“sgd”。注意,默认的解算器可以改变当你执行hyperparameter优化。有关更多信息,请参见正则化方法决定了线性学习者解决期间使用hyperparameter优化。
如果你指定一个字符串数组或单元阵列解决者的名字,然后,每个价值λ软件使用解决方案的解决者金宝搏官方网站j作为解算器的热启动j+ 1。
例子:{“sgd”“lbfgs”}SGD适用于解决客观,并使用解决方案作为LBFGS热启动。
提示
SGD ASGD可以解决目标函数比其他更快的解决者,而LBFGS和SpaRSA可以产生更精确的比其他解决方案。金宝搏官方网站解算器组合等{“sgd”“lbfgs”}和{“sgd”“sparsa”}可以平衡优化速度和准确度。
当选择SGD ASGD,考虑到:
每迭代SGD花费更少的时间,但是需要更多的迭代收敛。
ASGD需要更少的迭代收敛,但需要更多时间每个迭代。
如果高维度和预测数据正则化是“岭”,设置解算器这些组合:
“sgd”
“asgd”
“双重”如果学习者是“支持向量机”
“lbfgs”
{“sgd”、“lbfgs”}
{“asgd”、“lbfgs”}
{“双”、“lbfgs”}如果学习者是“支持向量机”
虽然你可以设置其他组合,他们经常导致精度差的解决方案。金宝搏官方网站
如果预测数据是通过低维的和温和的正则化是“岭”,设置解算器来“蓄热”。
如果正则化是“套索”,设置解算器这些组合:
“sgd”
“asgd”
“sparsa”
{“sgd”、“sparsa”}
{“asgd”、“sparsa”}
例子:“规划求解”,{‘sgd’,‘lbfgs}
β- - - - - -初始线性系数估计
0 (p,1)
(默认)|数值向量|数字矩阵
初始线性系数的估计(β),指定为逗号分隔组成的“β”和一个p维向量或一个数字p——- - - - - -l数字矩阵。p预测变量的数量吗X和l是regularization-strength值的数量(更多细节,看到了吗λ)。
如果你指定一个p维向量,然后软件优化目标函数l次使用这个过程。
软件的优化使用β初始值的最小值λ正则化的力量。
软件优化再次使用之前的预估结果,优化作为一个温暖的开始,下一个最小值λ正则化的力量。
软件实现第二步,直到耗尽所有的值λ。
如果你指定一个p——- - - - - -l矩阵,然后软件优化目标函数l次了。在迭代j,软件使用β(:,j)作为初始值,之后λ以升序排序,使用λ(j)正则化的力量。
如果你设置“规划求解”、“双”,那么软件忽略β。
数据类型:单|双
偏见- - - - - -最初的拦截估计
数字标量|数值向量
初始拦截估计(b),指定为逗号分隔组成的“偏见”和一个数字标量或一个l维数值向量。l是regularization-strength值的数量(更多细节,看到了吗λ)。
如果你指定一个标量,那么软件优化目标函数l次使用这个过程。
软件的优化使用偏见初始值的最小值λ正则化的力量。
使用结果估计,一个温暖的开始下一个优化迭代,并使用下一个最小值λ正则化的力量。
软件实现第二步,直到耗尽所有的值λ。
如果你指定一个l维向量,然后软件优化目标函数l次了。在迭代j,软件使用偏差(j)作为初始值,之后λ以升序排序,使用λ(j)正则化的力量。
默认情况下:
如果学习者是“物流”,然后让gj是1,如果Y (j)是积极的类,1。偏见加权平均g培训或,交叉验证的观察。
如果学习者是“支持向量机”,然后偏见是0。
数据类型:单|双
FitBias- - - - - -线性模型拦截包含国旗
真正的
(默认)|假
线性模型拦截包含标志,指定为逗号分隔组成的“FitBias”和真正的或假。
价值
描述
真正的
该软件包括偏差项b在线性模型,然后估计。
假
该软件集b在估计= 0。
例子:“FitBias”,假的
数据类型:逻辑
PostFitBias- - - - - -国旗符合线性模型优化后拦截
假
(默认)|真正的
国旗符合线性模型拦截优化后,指定为逗号分隔组成的“PostFitBias”和真正的或假。
价值
描述
假
软件估计偏差项b和系数β在优化。
真正的
估计b软件:
估计β和b使用模型
估计分类得分
不菲b通过将阈值的分类得分达到最大精度
如果您指定真正的,然后FitBias必须是真实的。
例子:“PostFitBias”,真的
数据类型:逻辑
详细的- - - - - -冗长的水平
0
(默认)|1
冗长的层面上,指定为逗号分隔组成的“详细”,要么0或1。详细的在命令行控制诊断信息的显示。
价值
描述
0
templateLinear不显示诊断信息。
1
templateLinear定期显示目标函数的值,梯度大小,和其他诊断信息。
例子:“详细”,1
数据类型:单|双
SGD和ASGD解算器选项
BatchSize- - - - - -Mini-batch大小
正整数
Mini-batch大小,指定为逗号分隔组成的“BatchSize”和一个正整数。在每个迭代中,梯度估计的软件使用BatchSize从训练数据的观察。
如果是一个数字矩阵的预测数据,那么默认值是10。
如果预测数据是一个稀疏矩阵,那么默认值是马克斯([10日装天花板(sqrt (ff)))),在那里ff =元素个数(X) / nnz (X),即丰满的因素的X。
例子:“BatchSize”, 100年
数据类型:单|双
LearnRate- - - - - -学习速率
积极的标量
学习速率,指定为逗号分隔组成的“LearnRate”和积极的标量。LearnRate控制了次梯度的优化步长扩展。
如果正则化是“岭”,然后LearnRate指定初始学习速率γ0。templateLinear确定迭代的学习速率t,γt,使用
λ的值是λ。
如果解算器是“sgd”,然后c= 1。
如果解算器是“asgd”,然后c是0.75[7]。
如果正则化是“套索”那么,所有迭代,LearnRate是恒定的。
默认情况下,LearnRate是1 /√(1 +马克斯(sum (x ^ 2, obsDim)))),在那里obsDim是1如果观测组合预测的列数据X,2否则。
例子:“LearnRate”, 0.01
数据类型:单|双
OptimizeLearnRate- - - - - -降低学习速率的旗帜
真正的
(默认)|假
国旗来减少软件检测时的学习速率差异(即over-stepping最低),指定为逗号分隔组成的“OptimizeLearnRate”和真正的或假。
如果OptimizeLearnRate是“真正的”,那么:
一些优化迭代的,软件开始优化使用LearnRate学习速率。
如果目标函数的值增加,然后重启软件,并使用当前值的学习速率的一半。
软件迭代步骤2,直到目标函数下降。
例子:“OptimizeLearnRate”,真的
数据类型:逻辑
TruncationPeriod- - - - - -之间的mini-batches套索截断
10
(默认)|正整数
之间的mini-batches套索截断,指定为逗号分隔组成的“TruncationPeriod”和一个正整数。
截断后运行,软件应用的软阈值线性系数。处理后k=TruncationPeriodmini-batches,截断的软件估计系数j使用
SGD,
是系数的估计j处理后kmini-batches。
γt 学习速度迭代t。λ的值是λ。
ASGD,
平均估计系数j处理后kmini-batches,
如果正则化是“岭”,那么软件忽略TruncationPeriod。
例子:“TruncationPeriod”, 100年
数据类型:单|双
SGD和ASGD收敛控制
BatchLimit- - - - - -最大数量的批次
正整数
最大数量的批量处理,指定为逗号分隔组成的“BatchLimit”和一个正整数。当软件过程BatchLimit批次,终止优化。
默认情况下:
该软件通过数据PassLimit次了。
如果你指定多个连接器,并使用(A) SGD得到一个初始近似接下来的解算器,那么默认值是装天花板(1 e6 / BatchSize)。BatchSize的价值吗”BatchSize
”名称-值对的论点。
如果您指定BatchLimit,然后templateLinear使用结果的参数处理最少的观察,BatchLimit或PassLimit。
例子:“BatchLimit”, 100年
数据类型:单|双
BetaTolerance- - - - - -相对公差线性系数和偏差项
1的军医
(默认)|负的标量
相对公差线性系数和偏差项(拦截),指定为逗号分隔组成的“BetaTolerance”和一个负的标量。
让
,即向量系数和偏差的优化迭代t。如果
,然后优化终止。
如果软件是收敛的解算程序中指定解算器,然后优化终止。否则,在指定的软件使用下一个解算器解算器。
例子:e-6 BetaTolerance, 1
数据类型:单|双
NumCheckConvergence- - - - - -批次处理下收敛之前检查
正整数
批次处理下收敛检查之前,指定为逗号分隔组成的“NumCheckConvergence”和一个正整数。
指定批处理大小,明白了BatchSize。
软件检查收敛大约10次默认通过整个数据集。
例子:“NumCheckConvergence”, 100年
数据类型:单|双
PassLimit- - - - - -最大数量的经过
1
(默认)|正整数
最大数量的经过数据,指定为逗号分隔组成的“PassLimit”和一个正整数。
当它完成一个所有观察值的软件过程通过数据。
当软件通过数据PassLimit时候,它终止优化。
如果您指定BatchLimit,然后templateLinear使用结果的参数处理最少的观察,BatchLimit或PassLimit。
例子:“PassLimit”, 5
数据类型:单|双
双重SGD收敛控制
BetaTolerance- - - - - -相对公差线性系数和偏差项
1的军医
(默认)|负的标量
相对公差线性系数和偏差项(拦截),指定为逗号分隔组成的“BetaTolerance”和一个负的标量。
让
,即向量系数和偏差的优化迭代t。如果
,然后优化终止。
如果你指定DeltaGradientTolerance,然后优化软件满足停止条件时终止。
如果软件是收敛的解算程序中指定解算器,然后优化终止。否则,在指定的软件使用下一个解算器解算器。
例子:e-6 BetaTolerance, 1
数据类型:单|双
DeltaGradientTolerance- - - - - -Gradient-difference宽容
1
(默认)|负的标量
Gradient-difference公差之间的上、下池Karush-Kuhn-Tucker(马)互补条件违反者,指定为负的标量。
如果马违规者的大小小于DeltaGradientTolerance,那么软件终止优化。
如果软件是收敛的解算程序中指定解算器,然后优化终止。否则,在指定的软件使用下一个解算器解算器。
例子:依照“DeltaGradientTolerance”, 1
数据类型:双|单
NumCheckConvergence- - - - - -数量的穿过整个数据集处理下收敛之前检查
5
(默认)|正整数
数量的穿过整个数据集处理下收敛之前检查,指定为逗号分隔组成的“NumCheckConvergence”和一个正整数。
例子:“NumCheckConvergence”, 100年
数据类型:单|双
PassLimit- - - - - -最大数量的经过
10
(默认)|正整数
最大数量的经过数据,指定为逗号分隔组成的“PassLimit”和一个正整数。
当软件完成一个通过数据,处理所有的观察。
当软件通过数据PassLimit时候,它终止优化。
例子:“PassLimit”, 5
数据类型:单|双
高炉煤气、LBFGS SpaRSA收敛控制
BetaTolerance- - - - - -相对公差线性系数和偏差项
1的军医
(默认)|负的标量
相对公差线性系数和偏差项(拦截),指定为负的标量。
让
,即向量系数和偏差的优化迭代t。如果
,然后优化终止。
如果你指定GradientTolerance,然后优化软件满足停止条件时终止。
如果软件是收敛的解算程序中指定解算器,然后优化终止。否则,在指定的软件使用下一个解算器解算器。
例子:e-6 BetaTolerance, 1
数据类型:单|双
GradientTolerance- - - - - -绝对梯度宽容
1 e-6
(默认)|负的标量
绝对梯度宽容,指定为负的标量。
让
是目标函数的梯度向量的系数和偏见在优化迭代t。如果
,然后优化终止。
如果你指定BetaTolerance,然后优化软件满足停止条件时终止。
如果软件收敛过去解算器中指定的软件,然后优化终止。否则,在指定的软件使用下一个解算器解算器。
例子:e-5 GradientTolerance, 1
数据类型:单|双
HessianHistorySize- - - - - -历史缓冲区大小黑森近似
15
(默认)|正整数
历史缓冲区大小黑森近似,指定为逗号分隔组成的“HessianHistorySize”和一个正整数。在每个迭代中,软件组成黑森使用最新的统计数据HessianHistorySize迭代。
软件不支持金宝app“HessianHistorySize”SpaRSA。
例子:“HessianHistorySize”, 10
数据类型:单|双
IterationLimit- - - - - -最大数量的优化迭代
1000年
(默认)|正整数
最大数量的优化迭代,指定为逗号分隔组成的“IterationLimit”和一个正整数。IterationLimit适用于这些值解算器:“蓄热”,“lbfgs”,“sparsa”。
例子:“IterationLimit”, 500年
数据类型:单|双
输出参数
t——学习者模板线性分类模型模板对象
线性分类模型学习模板,作为一个模板对象返回。训练一个线性分类模型使用高维数据进行多类问题,通过t来fitcecoc。
如果你显示t命令窗口,那么所有,未指定的选项出现空([])。然而,与相应的软件替换空选项默认值在训练。
更多关于
温暖的开始
一个温暖的开始初步估计的贝塔系数和偏见术语提供更快的收敛的优化程序。
提示
东方预测矩阵是一个最佳实践,观察对应列和指定“ObservationsIn”、“列”。作为一个结果,你可以体验在optimization-execution时间显著减少。
如果预测数据几乎没有观察,但许多预测变量,然后:
指定“PostFitBias”,真的。
SGD或ASGD解决者,集PassLimit大于1的正整数,例如,5或10。这个设置往往导致更好的精度。
SGD ASGD解决者,BatchSize影响了收敛速度。
如果BatchSize太小了,那么在许多迭代软件达到最低,但快速计算每个迭代的梯度。
如果BatchSize太大,那么软件达到最低在更少的迭代中,但慢慢地计算每个迭代的梯度。
大的学习速率(见LearnRate)加速收敛到最小值,但会导致分歧(即over-stepping最低)。小学习率确保收敛到最小值,但会导致缓慢的终止。
如果正则化是“套索”,然后尝试不同的值TruncationPeriod。例如,设置TruncationPeriod来1,10,然后One hundred.。
为了提高效率,软件不规范预测数据。标准化预测数据(X)你在东方观测为列,回车
X =正常化(X, 2);
如果你东方观测为行,输入
X =正常化(X);
对于经济的内存使用,代码替换原来的预测数据标准化的数据。
引用
[1],c·J。,K. W. Chang, C. J. Lin, S. S. Keerthi, and S. Sundararajan. “A Dual Coordinate Descent Method for Large-Scale Linear SVM.”学报》第25届国际会议上机器学习,ICML 08年,2001年,页408 - 415。
[2]兰福德,J。,l。li, and T. Zhang. “Sparse Online Learning Via Truncated Gradient.”j·马赫。学习。Res。10卷,2009年,页777 - 801。
[3]Nocedal, j .和s·j·莱特。数值优化第二版,纽约:施普林格,2006年。
[4]Shalev-Shwartz, S。,Y。Singer, and N. Srebro. “Pegasos: Primal Estimated Sub-Gradient Solver for SVM.”《24日国际会议在机器学习,ICML ' 07,2007年,页807 - 814。
[5]赖特,s . J。,R. D. Nowak, and M. A. T. Figueiredo. “Sparse Reconstruction by Separable Approximation.”反式。Proc团体。2009年,57卷,没有7日,第2479 - 2493页。
肖[6],林。“双重平均正规化方法随机学习和在线优化。”j·马赫。学习。Res。11卷,2010年,页2543 - 2596。
[7]徐,魏。“对最优传递规模与平均随机梯度下降学习。”相关系数、abs / 1107.2490, 2011年。
扩展功能
高大的数组计算和数组的行比装入内存。
使用notes和限制当你训练模型,通过一个线性模型模板和高大的数组fitcecoc:
这些名称-值对参数的默认值是不同的,当你使用高数组。
“λ”- - -可以“汽车”(默认)或一个标量
“正规化”——金宝app只支持“岭”
“规划求解”——金宝app只支持“lbfgs”
“FitBias”——金宝app只支持真正的
“详细”默认值是1
“BetaTolerance”——默认值是放松1 e - 3
“GradientTolerance”——默认值是放松1 e - 3
“IterationLimit”——默认值是放松20.
当fitcecoc使用一个templateLinear与高数组对象,只LBFGS可用的解决者。软件实现LBFGS分布计算的损失和梯度的不同部分之间高在每个迭代数组。如果您没有指定初始值β和偏见,软件改进的初始估计的参数拟合模型局部地区的数据,结合平均系数。
有关更多信息,请参见高大的数组。
版本历史
介绍了R2016a
另请参阅
templateLinear
模板指定了二进制学习者模型,正则化类型和强度,解算器,等等。在创建模板,通过模板训练模型和数据fitcecoc
例子
火车多级线性分类模型
火车一个ECOC模型由多个二进制,线性分类模型。
加载NLP数据集。
负载nlpdata
X是一个稀疏矩阵的预测数据,Y是一个分类向量类的标签。有两个以上的类的数据。
创建一个默认linear-classification-model模板。
t = templateLinear ();
调整默认值,请参阅名称-值对的观点在templateLinear页面。
火车一个ECOC模型由多个二进制,线性分类模型,可以确定产品的频率分布文档web页面的文字。为更快的训练时间,转置的预测数据,指定观察对应列。
X = X ';rng (1);%的再现性Mdl = fitcecoc (X, Y,“学习者”t“ObservationsIn”,“列”)
Mdl = CompactClassificationECOC ResponseName:“Y”类名:[通讯dsp是定点hdlcoder阶段性physmod仿真软件统计supportpkg象征性视觉xpc] ScoreTrans金宝appform:“没有一个金宝app”BinaryLearners: {78} x1细胞CodingMatrix: 13 x78双重属性,方法
或者,您可以训练一个ECOC模型组成的默认使用线性分类模型“学习者”,“线性”。
为了节省内存,fitcecoc返回训练ECOC模型组成的线性分类学习者CompactClassificationECOC模型对象。
火车多级线性分类模型
火车一个ECOC模型由多个二进制,线性分类模型。 加载NLP数据集。 创建一个默认linear-classification-model模板。 调整默认值,请参阅 火车一个ECOC模型由多个二进制,线性分类模型,可以确定产品的频率分布文档web页面的文字。为更快的训练时间,转置的预测数据,指定观察对应列。 或者,您可以训练一个ECOC模型组成的默认使用线性分类模型 为了节省内存,负载
X
t = templateLinear ();
X = X ';rng (1);
Mdl = CompactClassificationECOC ResponseName:“Y”类名:[通讯dsp是定点hdlcoder阶段性physmod仿真软件统计supportpkg象征性视觉xpc] ScoreTrans金宝appform:“没有一个金宝app”BinaryLearners: {78} x1细胞CodingMatrix: 13 x78双重属性,方法
输入参数
名称-值参数
指定可选的双参数作为Name1 = Value1,…,以=家,在那里的名字参数名称和吗价值相应的价值。名称-值参数必须出现在其他参数,但对的顺序无关紧要。
R2021a之前,用逗号来分隔每一个名称和值,并附上的名字在报价。
例子:“学习者”,“物流”、“正规化”,“套索”、“CrossVal”,“上”指定实现套索惩罚逻辑回归,并实现10倍交叉验证。
线性分类选项
λ- - - - - -正则化项的力量
“汽车”
(默认)|负的标量|向量的非负价值
正则化项,指定为逗号分隔组成的“λ”和“汽车”、非负标量或矢量非负的值。
为“汽车”,λ= 1 /n。
如果你指定一个交叉验证,名称-值对参数(例如,CrossVal),然后n的数量的观察。
否则,n是训练样本大小。
一个向量的非负价值,templateLinear按顺序优化的目标函数为每个不同的价值λ以升序排序。
如果解算器是“sgd”或“asgd”和正则化是“套索”,templateLinear不使用前面的系数估计作为一个吗温暖的开始在接下来的优化迭代。否则,templateLinear使用温暖的开始。
如果正则化是“套索”,那么任何系数估计的0时保留其价值templateLinear优化使用后续值λ。
templateLinear回归系数估计为每个指定的正则化的力量。
例子:“λ”,10 ^ (- (10:2:2))
数据类型:字符|字符串|双|单
学习者- - - - - -线性分类模型类型
“支持向量机”
(默认)|“物流”
线性分类模型类型,指定为逗号分隔组成的“学习者”和“支持向量机”或“物流”。
在这个表中,
β是一个向量的p系数。
x是一个观察从p预测变量。
b是标量的偏见。
价值
算法
响应范围
损失函数
“支持向量机”
金宝app支持向量机
y∊{1};1为正类和1
铰链:
“物流”
逻辑回归
一样“支持向量机”
异常(物流):
例子:“学习者”,“物流”
正则化- - - - - -复杂性处罚类型
“套索”
|“岭”
复杂性处罚类型,指定为逗号分隔组成的“正规化”和“套索”或“岭”。
软件组成的目标函数最小化的平均损失函数(见的总和学习者在这表)和正则化项。
价值
描述
“套索”
套索(L1)罚款:
“岭”
脊(L2)罚款:
指定正则化项力量,这是λ的表达式,使用λ。
软件不包括偏差项(β0从正则化处罚)。
如果解算器是“sparsa”的默认值正则化是“套索”。否则,默认值是“岭”。
提示
为预测变量选择,指定“套索”。更多变量选择,明白了介绍了特征选择。
对于优化精度,指定“岭”。
例子:“正规化”、“套索”
解算器- - - - - -目标函数极小化技术
“sgd”
|“asgd”
|“双重”
|“蓄热”|“lbfgs”|“sparsa”|字符串数组|单元阵列的特征向量
目标函数最小化技术,指定为逗号分隔组成的“规划求解”和特征向量或字符串标量字符串数组或单元阵列特征向量的值从这个表。
价值
描述
限制
“sgd”
随机梯度下降法(SGD)[4][2]
“asgd”
平均随机梯度下降法(ASGD)[7]
“双重”
双重SGD对支持向量机[1][6]
正则化
必须“岭”和学习者必须“支持向量机”。
“蓄热”
Broyden-Fletcher-Goldfarb-Shanno拟牛顿算法(高炉煤气)[3]
效率低下,如果X非常高维。
“lbfgs”
内存有限bfg (LBFGS)[3]
正则化必须“岭”。
“sparsa”
通过分离变量近似稀疏重建(SpaRSA)[5]
正则化必须“套索”。
如果你指定:
山脊处罚(见正则化)和预测数据集包含100个或更少的预测变量,那么默认的能手“蓄热”。
一个支持向量机模型(见学习者)、脊的点球和预测数据集包含100多个预测变量,那么默认的能手“双重”。
套索点球和预测数据集包含100个或更少的预测变量,然后默认解决“sparsa”。
否则,默认的能手“sgd”。注意,默认的解算器可以改变当你执行hyperparameter优化。有关更多信息,请参见正则化方法决定了线性学习者解决期间使用hyperparameter优化。
如果你指定一个字符串数组或单元阵列解决者的名字,然后,每个价值λ软件使用解决方案的解决者金宝搏官方网站j作为解算器的热启动j+ 1。
例子:{“sgd”“lbfgs”}SGD适用于解决客观,并使用解决方案作为LBFGS热启动。
提示
SGD ASGD可以解决目标函数比其他更快的解决者,而LBFGS和SpaRSA可以产生更精确的比其他解决方案。金宝搏官方网站解算器组合等{“sgd”“lbfgs”}和{“sgd”“sparsa”}可以平衡优化速度和准确度。
当选择SGD ASGD,考虑到:
每迭代SGD花费更少的时间,但是需要更多的迭代收敛。
ASGD需要更少的迭代收敛,但需要更多时间每个迭代。
如果高维度和预测数据正则化是“岭”,设置解算器这些组合:
“sgd”
“asgd”
“双重”如果学习者是“支持向量机”
“lbfgs”
{“sgd”、“lbfgs”}
{“asgd”、“lbfgs”}
{“双”、“lbfgs”}如果学习者是“支持向量机”
虽然你可以设置其他组合,他们经常导致精度差的解决方案。金宝搏官方网站
如果预测数据是通过低维的和温和的正则化是“岭”,设置解算器来“蓄热”。
如果正则化是“套索”,设置解算器这些组合:
“sgd”
“asgd”
“sparsa”
{“sgd”、“sparsa”}
{“asgd”、“sparsa”}
例子:“规划求解”,{‘sgd’,‘lbfgs}
β- - - - - -初始线性系数估计
0 (p,1)
(默认)|数值向量|数字矩阵
初始线性系数的估计(β),指定为逗号分隔组成的“β”和一个p维向量或一个数字p——- - - - - -l数字矩阵。p预测变量的数量吗X和l是regularization-strength值的数量(更多细节,看到了吗λ)。
如果你指定一个p维向量,然后软件优化目标函数l次使用这个过程。
软件的优化使用β初始值的最小值λ正则化的力量。
软件优化再次使用之前的预估结果,优化作为一个温暖的开始,下一个最小值λ正则化的力量。
软件实现第二步,直到耗尽所有的值λ。
如果你指定一个p——- - - - - -l矩阵,然后软件优化目标函数l次了。在迭代j,软件使用β(:,j)作为初始值,之后λ以升序排序,使用λ(j)正则化的力量。
如果你设置“规划求解”、“双”,那么软件忽略β。
数据类型:单|双
偏见- - - - - -最初的拦截估计
数字标量|数值向量
初始拦截估计(b),指定为逗号分隔组成的“偏见”和一个数字标量或一个l维数值向量。l是regularization-strength值的数量(更多细节,看到了吗λ)。
如果你指定一个标量,那么软件优化目标函数l次使用这个过程。
软件的优化使用偏见初始值的最小值λ正则化的力量。
使用结果估计,一个温暖的开始下一个优化迭代,并使用下一个最小值λ正则化的力量。
软件实现第二步,直到耗尽所有的值λ。
如果你指定一个l维向量,然后软件优化目标函数l次了。在迭代j,软件使用偏差(j)作为初始值,之后λ以升序排序,使用λ(j)正则化的力量。
默认情况下:
如果学习者是“物流”,然后让gj是1,如果Y (j)是积极的类,1。偏见加权平均g培训或,交叉验证的观察。
如果学习者是“支持向量机”,然后偏见是0。
数据类型:单|双
FitBias- - - - - -线性模型拦截包含国旗
真正的
(默认)|假
线性模型拦截包含标志,指定为逗号分隔组成的“FitBias”和真正的或假。
价值
描述
真正的
该软件包括偏差项b在线性模型,然后估计。
假
该软件集b在估计= 0。
例子:“FitBias”,假的
数据类型:逻辑
PostFitBias- - - - - -国旗符合线性模型优化后拦截
假
(默认)|真正的
国旗符合线性模型拦截优化后,指定为逗号分隔组成的“PostFitBias”和真正的或假。
价值
描述
假
软件估计偏差项b和系数β在优化。
真正的
估计b软件:
估计β和b使用模型
估计分类得分
不菲b通过将阈值的分类得分达到最大精度
如果您指定真正的,然后FitBias必须是真实的。
例子:“PostFitBias”,真的
数据类型:逻辑
详细的- - - - - -冗长的水平
0
(默认)|1
冗长的层面上,指定为逗号分隔组成的“详细”,要么0或1。详细的在命令行控制诊断信息的显示。
价值
描述
0
templateLinear不显示诊断信息。
1
templateLinear定期显示目标函数的值,梯度大小,和其他诊断信息。
例子:“详细”,1
数据类型:单|双
SGD和ASGD解算器选项
BatchSize- - - - - -Mini-batch大小
正整数
Mini-batch大小,指定为逗号分隔组成的“BatchSize”和一个正整数。在每个迭代中,梯度估计的软件使用BatchSize从训练数据的观察。
如果是一个数字矩阵的预测数据,那么默认值是10。
如果预测数据是一个稀疏矩阵,那么默认值是马克斯([10日装天花板(sqrt (ff)))),在那里ff =元素个数(X) / nnz (X),即丰满的因素的X。
例子:“BatchSize”, 100年
数据类型:单|双
LearnRate- - - - - -学习速率
积极的标量
学习速率,指定为逗号分隔组成的“LearnRate”和积极的标量。LearnRate控制了次梯度的优化步长扩展。
如果正则化是“岭”,然后LearnRate指定初始学习速率γ0。templateLinear确定迭代的学习速率t,γt,使用
λ的值是λ。
如果解算器是“sgd”,然后c= 1。
如果解算器是“asgd”,然后c是0.75[7]。
如果正则化是“套索”那么,所有迭代,LearnRate是恒定的。
默认情况下,LearnRate是1 /√(1 +马克斯(sum (x ^ 2, obsDim)))),在那里obsDim是1如果观测组合预测的列数据X,2否则。
例子:“LearnRate”, 0.01
数据类型:单|双
OptimizeLearnRate- - - - - -降低学习速率的旗帜
真正的
(默认)|假
国旗来减少软件检测时的学习速率差异(即over-stepping最低),指定为逗号分隔组成的“OptimizeLearnRate”和真正的或假。
如果OptimizeLearnRate是“真正的”,那么:
一些优化迭代的,软件开始优化使用LearnRate学习速率。
如果目标函数的值增加,然后重启软件,并使用当前值的学习速率的一半。
软件迭代步骤2,直到目标函数下降。
例子:“OptimizeLearnRate”,真的
数据类型:逻辑
TruncationPeriod- - - - - -之间的mini-batches套索截断
10
(默认)|正整数
之间的mini-batches套索截断,指定为逗号分隔组成的“TruncationPeriod”和一个正整数。
截断后运行,软件应用的软阈值线性系数。处理后k=TruncationPeriodmini-batches,截断的软件估计系数j使用
SGD,
是系数的估计j处理后kmini-batches。
γt 学习速度迭代t。λ的值是λ。
ASGD,
平均估计系数j处理后kmini-batches,
如果正则化是“岭”,那么软件忽略TruncationPeriod。
例子:“TruncationPeriod”, 100年
数据类型:单|双
SGD和ASGD收敛控制
BatchLimit- - - - - -最大数量的批次
正整数
最大数量的批量处理,指定为逗号分隔组成的“BatchLimit”和一个正整数。当软件过程BatchLimit批次,终止优化。
默认情况下:
该软件通过数据PassLimit次了。
如果你指定多个连接器,并使用(A) SGD得到一个初始近似接下来的解算器,那么默认值是装天花板(1 e6 / BatchSize)。BatchSize的价值吗”BatchSize
”名称-值对的论点。
如果您指定BatchLimit,然后templateLinear使用结果的参数处理最少的观察,BatchLimit或PassLimit。
例子:“BatchLimit”, 100年
数据类型:单|双
BetaTolerance- - - - - -相对公差线性系数和偏差项
1的军医
(默认)|负的标量
相对公差线性系数和偏差项(拦截),指定为逗号分隔组成的“BetaTolerance”和一个负的标量。
让
,即向量系数和偏差的优化迭代t。如果
,然后优化终止。
如果软件是收敛的解算程序中指定解算器,然后优化终止。否则,在指定的软件使用下一个解算器解算器。
例子:e-6 BetaTolerance, 1
数据类型:单|双
NumCheckConvergence- - - - - -批次处理下收敛之前检查
正整数
批次处理下收敛检查之前,指定为逗号分隔组成的“NumCheckConvergence”和一个正整数。
指定批处理大小,明白了BatchSize。
软件检查收敛大约10次默认通过整个数据集。
例子:“NumCheckConvergence”, 100年
数据类型:单|双
PassLimit- - - - - -最大数量的经过
1
(默认)|正整数
最大数量的经过数据,指定为逗号分隔组成的“PassLimit”和一个正整数。
当它完成一个所有观察值的软件过程通过数据。
当软件通过数据PassLimit时候,它终止优化。
如果您指定BatchLimit,然后templateLinear使用结果的参数处理最少的观察,BatchLimit或PassLimit。
例子:“PassLimit”, 5
数据类型:单|双
双重SGD收敛控制
BetaTolerance- - - - - -相对公差线性系数和偏差项
1的军医
(默认)|负的标量
相对公差线性系数和偏差项(拦截),指定为逗号分隔组成的“BetaTolerance”和一个负的标量。
让
,即向量系数和偏差的优化迭代t。如果
,然后优化终止。
如果你指定DeltaGradientTolerance,然后优化软件满足停止条件时终止。
如果软件是收敛的解算程序中指定解算器,然后优化终止。否则,在指定的软件使用下一个解算器解算器。
例子:e-6 BetaTolerance, 1
数据类型:单|双
DeltaGradientTolerance- - - - - -Gradient-difference宽容
1
(默认)|负的标量
Gradient-difference公差之间的上、下池Karush-Kuhn-Tucker(马)互补条件违反者,指定为负的标量。
如果马违规者的大小小于DeltaGradientTolerance,那么软件终止优化。
如果软件是收敛的解算程序中指定解算器,然后优化终止。否则,在指定的软件使用下一个解算器解算器。
例子:依照“DeltaGradientTolerance”, 1
数据类型:双|单
NumCheckConvergence- - - - - -数量的穿过整个数据集处理下收敛之前检查
5
(默认)|正整数
数量的穿过整个数据集处理下收敛之前检查,指定为逗号分隔组成的“NumCheckConvergence”和一个正整数。
例子:“NumCheckConvergence”, 100年
数据类型:单|双
PassLimit- - - - - -最大数量的经过
10
(默认)|正整数
最大数量的经过数据,指定为逗号分隔组成的“PassLimit”和一个正整数。
当软件完成一个通过数据,处理所有的观察。
当软件通过数据PassLimit时候,它终止优化。
例子:“PassLimit”, 5
数据类型:单|双
高炉煤气、LBFGS SpaRSA收敛控制
BetaTolerance- - - - - -相对公差线性系数和偏差项
1的军医
(默认)|负的标量
相对公差线性系数和偏差项(拦截),指定为负的标量。
让
,即向量系数和偏差的优化迭代t。如果
,然后优化终止。
如果你指定GradientTolerance,然后优化软件满足停止条件时终止。
如果软件是收敛的解算程序中指定解算器,然后优化终止。否则,在指定的软件使用下一个解算器解算器。
例子:e-6 BetaTolerance, 1
数据类型:单|双
GradientTolerance- - - - - -绝对梯度宽容
1 e-6
(默认)|负的标量
绝对梯度宽容,指定为负的标量。
让
是目标函数的梯度向量的系数和偏见在优化迭代t。如果
,然后优化终止。
如果你指定BetaTolerance,然后优化软件满足停止条件时终止。
如果软件收敛过去解算器中指定的软件,然后优化终止。否则,在指定的软件使用下一个解算器解算器。
例子:e-5 GradientTolerance, 1
数据类型:单|双
HessianHistorySize- - - - - -历史缓冲区大小黑森近似
15
(默认)|正整数
历史缓冲区大小黑森近似,指定为逗号分隔组成的“HessianHistorySize”和一个正整数。在每个迭代中,软件组成黑森使用最新的统计数据HessianHistorySize迭代。
软件不支持金宝app“HessianHistorySize”SpaRSA。
例子:“HessianHistorySize”, 10
数据类型:单|双
IterationLimit- - - - - -最大数量的优化迭代
1000年
(默认)|正整数
最大数量的优化迭代,指定为逗号分隔组成的“IterationLimit”和一个正整数。IterationLimit适用于这些值解算器:“蓄热”,“lbfgs”,“sparsa”。
例子:“IterationLimit”, 500年
数据类型:单|双
名称-值参数
指定可选的双参数作为Name1 = Value1,…,以=家,在那里的名字参数名称和吗价值相应的价值。名称-值参数必须出现在其他参数,但对的顺序无关紧要。
R2021a之前,用逗号来分隔每一个名称和值,并附上的名字在报价。
例子:“学习者”,“物流”、“正规化”,“套索”、“CrossVal”,“上”指定实现套索惩罚逻辑回归,并实现10倍交叉验证。
线性分类选项
λ- - - - - -正则化项的力量
“汽车”
(默认)|负的标量|向量的非负价值
正则化项,指定为逗号分隔组成的“λ”和“汽车”、非负标量或矢量非负的值。
为“汽车”,λ= 1 /n。
如果你指定一个交叉验证,名称-值对参数(例如,CrossVal),然后n的数量的观察。
否则,n是训练样本大小。
一个向量的非负价值,templateLinear按顺序优化的目标函数为每个不同的价值λ以升序排序。
如果解算器是“sgd”或“asgd”和正则化是“套索”,templateLinear不使用前面的系数估计作为一个吗温暖的开始在接下来的优化迭代。否则,templateLinear使用温暖的开始。
如果正则化是“套索”,那么任何系数估计的0时保留其价值templateLinear优化使用后续值λ。
templateLinear回归系数估计为每个指定的正则化的力量。
例子:“λ”,10 ^ (- (10:2:2))
数据类型:字符|字符串|双|单
学习者- - - - - -线性分类模型类型
“支持向量机”
(默认)|“物流”
线性分类模型类型,指定为逗号分隔组成的“学习者”和“支持向量机”或“物流”。
在这个表中,
β是一个向量的p系数。
x是一个观察从p预测变量。
b是标量的偏见。
价值
算法
响应范围
损失函数
“支持向量机”
金宝app支持向量机
y∊{1};1为正类和1
铰链:
“物流”
逻辑回归
一样“支持向量机”
异常(物流):
例子:“学习者”,“物流”
正则化- - - - - -复杂性处罚类型
“套索”
|“岭”
复杂性处罚类型,指定为逗号分隔组成的“正规化”和“套索”或“岭”。
软件组成的目标函数最小化的平均损失函数(见的总和学习者在这表)和正则化项。
价值
描述
“套索”
套索(L1)罚款:
“岭”
脊(L2)罚款:
指定正则化项力量,这是λ的表达式,使用λ。
软件不包括偏差项(β0从正则化处罚)。
如果解算器是“sparsa”的默认值正则化是“套索”。否则,默认值是“岭”。
提示
为预测变量选择,指定“套索”。更多变量选择,明白了介绍了特征选择。
对于优化精度,指定“岭”。
例子:“正规化”、“套索”
解算器- - - - - -目标函数极小化技术
“sgd”
|“asgd”
|“双重”
|“蓄热”|“lbfgs”|“sparsa”|字符串数组|单元阵列的特征向量
目标函数最小化技术,指定为逗号分隔组成的“规划求解”和特征向量或字符串标量字符串数组或单元阵列特征向量的值从这个表。
价值
描述
限制
“sgd”
随机梯度下降法(SGD)[4][2]
“asgd”
平均随机梯度下降法(ASGD)[7]
“双重”
双重SGD对支持向量机[1][6]
正则化
必须“岭”和学习者必须“支持向量机”。
“蓄热”
Broyden-Fletcher-Goldfarb-Shanno拟牛顿算法(高炉煤气)[3]
效率低下,如果X非常高维。
“lbfgs”
内存有限bfg (LBFGS)[3]
正则化必须“岭”。
“sparsa”
通过分离变量近似稀疏重建(SpaRSA)[5]
正则化必须“套索”。
如果你指定:
山脊处罚(见正则化)和预测数据集包含100个或更少的预测变量,那么默认的能手“蓄热”。
一个支持向量机模型(见学习者)、脊的点球和预测数据集包含100多个预测变量,那么默认的能手“双重”。
套索点球和预测数据集包含100个或更少的预测变量,然后默认解决“sparsa”。
否则,默认的能手“sgd”。注意,默认的解算器可以改变当你执行hyperparameter优化。有关更多信息,请参见正则化方法决定了线性学习者解决期间使用hyperparameter优化。
如果你指定一个字符串数组或单元阵列解决者的名字,然后,每个价值λ软件使用解决方案的解决者金宝搏官方网站j作为解算器的热启动j+ 1。
例子:{“sgd”“lbfgs”}SGD适用于解决客观,并使用解决方案作为LBFGS热启动。
提示
SGD ASGD可以解决目标函数比其他更快的解决者,而LBFGS和SpaRSA可以产生更精确的比其他解决方案。金宝搏官方网站解算器组合等{“sgd”“lbfgs”}和{“sgd”“sparsa”}可以平衡优化速度和准确度。
当选择SGD ASGD,考虑到:
每迭代SGD花费更少的时间,但是需要更多的迭代收敛。
ASGD需要更少的迭代收敛,但需要更多时间每个迭代。
如果高维度和预测数据正则化是“岭”,设置解算器这些组合:
“sgd”
“asgd”
“双重”如果学习者是“支持向量机”
“lbfgs”
{“sgd”、“lbfgs”}
{“asgd”、“lbfgs”}
{“双”、“lbfgs”}如果学习者是“支持向量机”
虽然你可以设置其他组合,他们经常导致精度差的解决方案。金宝搏官方网站
如果预测数据是通过低维的和温和的正则化是“岭”,设置解算器来“蓄热”。
如果正则化是“套索”,设置解算器这些组合:
“sgd”
“asgd”
“sparsa”
{“sgd”、“sparsa”}
{“asgd”、“sparsa”}
例子:“规划求解”,{‘sgd’,‘lbfgs}
β- - - - - -初始线性系数估计
0 (p,1)
(默认)|数值向量|数字矩阵
初始线性系数的估计(β),指定为逗号分隔组成的“β”和一个p维向量或一个数字p——- - - - - -l数字矩阵。p预测变量的数量吗X和l是regularization-strength值的数量(更多细节,看到了吗λ)。
如果你指定一个p维向量,然后软件优化目标函数l次使用这个过程。
软件的优化使用β初始值的最小值λ正则化的力量。
软件优化再次使用之前的预估结果,优化作为一个温暖的开始,下一个最小值λ正则化的力量。
软件实现第二步,直到耗尽所有的值λ。
如果你指定一个p——- - - - - -l矩阵,然后软件优化目标函数l次了。在迭代j,软件使用β(:,j)作为初始值,之后λ以升序排序,使用λ(j)正则化的力量。
如果你设置“规划求解”、“双”,那么软件忽略β。
数据类型:单|双
偏见- - - - - -最初的拦截估计
数字标量|数值向量
初始拦截估计(b),指定为逗号分隔组成的“偏见”和一个数字标量或一个l维数值向量。l是regularization-strength值的数量(更多细节,看到了吗λ)。
如果你指定一个标量,那么软件优化目标函数l次使用这个过程。
软件的优化使用偏见初始值的最小值λ正则化的力量。
使用结果估计,一个温暖的开始下一个优化迭代,并使用下一个最小值λ正则化的力量。
软件实现第二步,直到耗尽所有的值λ。
如果你指定一个l维向量,然后软件优化目标函数l次了。在迭代j,软件使用偏差(j)作为初始值,之后λ以升序排序,使用λ(j)正则化的力量。
默认情况下:
如果学习者是“物流”,然后让gj是1,如果Y (j)是积极的类,1。偏见加权平均g培训或,交叉验证的观察。
如果学习者是“支持向量机”,然后偏见是0。
数据类型:单|双
FitBias- - - - - -线性模型拦截包含国旗
真正的
(默认)|假
线性模型拦截包含标志,指定为逗号分隔组成的“FitBias”和真正的或假。
价值
描述
真正的
该软件包括偏差项b在线性模型,然后估计。
假
该软件集b在估计= 0。
例子:“FitBias”,假的
数据类型:逻辑
PostFitBias- - - - - -国旗符合线性模型优化后拦截
假
(默认)|真正的
国旗符合线性模型拦截优化后,指定为逗号分隔组成的“PostFitBias”和真正的或假。
价值
描述
假
软件估计偏差项b和系数β在优化。
真正的
估计b软件:
估计β和b使用模型
估计分类得分
不菲b通过将阈值的分类得分达到最大精度
如果您指定真正的,然后FitBias必须是真实的。
例子:“PostFitBias”,真的
数据类型:逻辑
详细的- - - - - -冗长的水平
0
(默认)|1
冗长的层面上,指定为逗号分隔组成的“详细”,要么0或1。详细的在命令行控制诊断信息的显示。
价值
描述
0
templateLinear不显示诊断信息。
1
templateLinear定期显示目标函数的值,梯度大小,和其他诊断信息。
例子:“详细”,1
数据类型:单|双
SGD和ASGD解算器选项
BatchSize- - - - - -Mini-batch大小
正整数
Mini-batch大小,指定为逗号分隔组成的“BatchSize”和一个正整数。在每个迭代中,梯度估计的软件使用BatchSize从训练数据的观察。
如果是一个数字矩阵的预测数据,那么默认值是10。
如果预测数据是一个稀疏矩阵,那么默认值是马克斯([10日装天花板(sqrt (ff)))),在那里ff =元素个数(X) / nnz (X),即丰满的因素的X。
例子:“BatchSize”, 100年
数据类型:单|双
LearnRate- - - - - -学习速率
积极的标量
学习速率,指定为逗号分隔组成的“LearnRate”和积极的标量。LearnRate控制了次梯度的优化步长扩展。
如果正则化是“岭”,然后LearnRate指定初始学习速率γ0。templateLinear确定迭代的学习速率t,γt,使用
λ的值是λ。
如果解算器是“sgd”,然后c= 1。
如果解算器是“asgd”,然后c是0.75[7]。
如果正则化是“套索”那么,所有迭代,LearnRate是恒定的。
默认情况下,LearnRate是1 /√(1 +马克斯(sum (x ^ 2, obsDim)))),在那里obsDim是1如果观测组合预测的列数据X,2否则。
例子:“LearnRate”, 0.01
数据类型:单|双
OptimizeLearnRate- - - - - -降低学习速率的旗帜
真正的
(默认)|假
国旗来减少软件检测时的学习速率差异(即over-stepping最低),指定为逗号分隔组成的“OptimizeLearnRate”和真正的或假。
如果OptimizeLearnRate是“真正的”,那么:
一些优化迭代的,软件开始优化使用LearnRate学习速率。
如果目标函数的值增加,然后重启软件,并使用当前值的学习速率的一半。
软件迭代步骤2,直到目标函数下降。
例子:“OptimizeLearnRate”,真的
数据类型:逻辑
TruncationPeriod- - - - - -之间的mini-batches套索截断
10
(默认)|正整数
之间的mini-batches套索截断,指定为逗号分隔组成的“TruncationPeriod”和一个正整数。
截断后运行,软件应用的软阈值线性系数。处理后k=TruncationPeriodmini-batches,截断的软件估计系数j使用
SGD,
是系数的估计j处理后kmini-batches。
γt 学习速度迭代t。λ的值是λ。
ASGD,
平均估计系数j处理后kmini-batches,
如果正则化是“岭”,那么软件忽略TruncationPeriod。
例子:“TruncationPeriod”, 100年
数据类型:单|双
SGD和ASGD收敛控制
BatchLimit- - - - - -最大数量的批次
正整数
最大数量的批量处理,指定为逗号分隔组成的“BatchLimit”和一个正整数。当软件过程BatchLimit批次,终止优化。
默认情况下:
该软件通过数据PassLimit次了。
如果你指定多个连接器,并使用(A) SGD得到一个初始近似接下来的解算器,那么默认值是装天花板(1 e6 / BatchSize)。BatchSize的价值吗”BatchSize
”名称-值对的论点。
如果您指定BatchLimit,然后templateLinear使用结果的参数处理最少的观察,BatchLimit或PassLimit。
例子:“BatchLimit”, 100年
数据类型:单|双
BetaTolerance- - - - - -相对公差线性系数和偏差项
1的军医
(默认)|负的标量
相对公差线性系数和偏差项(拦截),指定为逗号分隔组成的“BetaTolerance”和一个负的标量。
让
,即向量系数和偏差的优化迭代t。如果
,然后优化终止。
如果软件是收敛的解算程序中指定解算器,然后优化终止。否则,在指定的软件使用下一个解算器解算器。
例子:e-6 BetaTolerance, 1
数据类型:单|双
NumCheckConvergence- - - - - -批次处理下收敛之前检查
正整数
批次处理下收敛检查之前,指定为逗号分隔组成的“NumCheckConvergence”和一个正整数。
指定批处理大小,明白了BatchSize。
软件检查收敛大约10次默认通过整个数据集。
例子:“NumCheckConvergence”, 100年
数据类型:单|双
PassLimit- - - - - -最大数量的经过
1
(默认)|正整数
最大数量的经过数据,指定为逗号分隔组成的“PassLimit”和一个正整数。
当它完成一个所有观察值的软件过程通过数据。
当软件通过数据PassLimit时候,它终止优化。
如果您指定BatchLimit,然后templateLinear使用结果的参数处理最少的观察,BatchLimit或PassLimit。
例子:“PassLimit”, 5
数据类型:单|双
双重SGD收敛控制
BetaTolerance- - - - - -相对公差线性系数和偏差项
1的军医
(默认)|负的标量
相对公差线性系数和偏差项(拦截),指定为逗号分隔组成的“BetaTolerance”和一个负的标量。
让
,即向量系数和偏差的优化迭代t。如果
,然后优化终止。
如果你指定DeltaGradientTolerance,然后优化软件满足停止条件时终止。
如果软件是收敛的解算程序中指定解算器,然后优化终止。否则,在指定的软件使用下一个解算器解算器。
例子:e-6 BetaTolerance, 1
数据类型:单|双
DeltaGradientTolerance- - - - - -Gradient-difference宽容
1
(默认)|负的标量
Gradient-difference公差之间的上、下池Karush-Kuhn-Tucker(马)互补条件违反者,指定为负的标量。
如果马违规者的大小小于DeltaGradientTolerance,那么软件终止优化。
如果软件是收敛的解算程序中指定解算器,然后优化终止。否则,在指定的软件使用下一个解算器解算器。
例子:依照“DeltaGradientTolerance”, 1
数据类型:双|单
NumCheckConvergence- - - - - -数量的穿过整个数据集处理下收敛之前检查
5
(默认)|正整数
数量的穿过整个数据集处理下收敛之前检查,指定为逗号分隔组成的“NumCheckConvergence”和一个正整数。
例子:“NumCheckConvergence”, 100年
数据类型:单|双
PassLimit- - - - - -最大数量的经过
10
(默认)|正整数
最大数量的经过数据,指定为逗号分隔组成的“PassLimit”和一个正整数。
当软件完成一个通过数据,处理所有的观察。
当软件通过数据PassLimit时候,它终止优化。
例子:“PassLimit”, 5
数据类型:单|双
高炉煤气、LBFGS SpaRSA收敛控制
BetaTolerance- - - - - -相对公差线性系数和偏差项
1的军医
(默认)|负的标量
相对公差线性系数和偏差项(拦截),指定为负的标量。
让
,即向量系数和偏差的优化迭代t。如果
,然后优化终止。
如果你指定GradientTolerance,然后优化软件满足停止条件时终止。
如果软件是收敛的解算程序中指定解算器,然后优化终止。否则,在指定的软件使用下一个解算器解算器。
例子:e-6 BetaTolerance, 1
数据类型:单|双
GradientTolerance- - - - - -绝对梯度宽容
1 e-6
(默认)|负的标量
绝对梯度宽容,指定为负的标量。
让
是目标函数的梯度向量的系数和偏见在优化迭代t。如果
,然后优化终止。
如果你指定BetaTolerance,然后优化软件满足停止条件时终止。
如果软件收敛过去解算器中指定的软件,然后优化终止。否则,在指定的软件使用下一个解算器解算器。
例子:e-5 GradientTolerance, 1
数据类型:单|双
HessianHistorySize- - - - - -历史缓冲区大小黑森近似
15
(默认)|正整数
历史缓冲区大小黑森近似,指定为逗号分隔组成的“HessianHistorySize”和一个正整数。在每个迭代中,软件组成黑森使用最新的统计数据HessianHistorySize迭代。
软件不支持金宝app“HessianHistorySize”SpaRSA。
例子:“HessianHistorySize”, 10
数据类型:单|双
IterationLimit- - - - - -最大数量的优化迭代
1000年
(默认)|正整数
最大数量的优化迭代,指定为逗号分隔组成的“IterationLimit”和一个正整数。IterationLimit适用于这些值解算器:“蓄热”,“lbfgs”,“sparsa”。
例子:“IterationLimit”, 500年
数据类型:单|双
指定可选的双参数作为 R2021a之前,用逗号来分隔每一个名称和值,并附上 例子:的名字
“学习者”,“物流”、“正规化”,“套索”、“CrossVal”,“上”
λ- - - - - -正则化项的力量
“汽车”
(默认)|负的标量|向量的非负价值
“汽车”
(默认)|正则化项,指定为逗号分隔组成的 为 如果你指定一个交叉验证,名称-值对参数(例如, 否则, 一个向量的非负价值, 如果 如果 例子: 数据类型:
解算器
正则化
templateLinear
“λ”,10 ^ (- (10:2:2))
字符
学习者- - - - - -线性分类模型类型
“支持向量机”
(默认)|“物流”
“支持向量机”
(默认)|“物流”
线性分类模型类型,指定为逗号分隔组成的 在这个表中, β x b 例子:
价值 算法 响应范围 损失函数
“支持向量机”
金宝app支持向量机 y 铰链:
“物流”
逻辑回归 一样
异常(物流):
“学习者”,“物流”
正则化- - - - - -复杂性处罚类型
“套索”
|“岭”
“套索”
|“岭”
复杂性处罚类型,指定为逗号分隔组成的 软件组成的目标函数最小化的平均损失函数(见的总和 指定正则化项力量,这是 软件不包括偏差项( 如果 提示 为预测变量选择,指定 对于优化精度,指定 例子:学习者
价值 描述
“套索”
套索(L1)罚款:
“岭”
脊(L2)罚款:
λ
解算器
“正规化”、“套索”
解算器- - - - - -目标函数极小化技术
“sgd”
|“asgd”
|“双重”
|“蓄热”|“lbfgs”|“sparsa”|字符串数组|单元阵列的特征向量
“sgd”
|“asgd”
“双重”
“蓄热”|“lbfgs”|“sparsa”|字符串数组|单元阵列的特征向量
目标函数最小化技术,指定为逗号分隔组成的 如果你指定: 山脊处罚(见 一个支持向量机模型(见 套索点球和预测数据集包含100个或更少的预测变量,然后默认解决 否则,默认的能手 如果你指定一个字符串数组或单元阵列解决者的名字,然后,每个价值 例子: 提示 SGD ASGD可以解决目标函数比其他更快的解决者,而LBFGS和SpaRSA可以产生更精确的比其他解决方案。金宝搏官方网站解算器组合等 当选择SGD ASGD,考虑到: 每迭代SGD花费更少的时间,但是需要更多的迭代收敛。 ASGD需要更少的迭代收敛,但需要更多时间每个迭代。 如果高维度和预测数据 虽然你可以设置其他组合,他们经常导致精度差的解决方案。金宝搏官方网站 如果预测数据是通过低维的和温和的 如果 例子:
价值 描述 限制
“sgd”
随机梯度下降法(SGD)
“asgd”
平均随机梯度下降法(ASGD)
“双重”
双重SGD对支持向量机
正则化
必须学习者
“蓄热”
Broyden-Fletcher-Goldfarb-Shanno拟牛顿算法(高炉煤气)
效率低下,如果
“lbfgs”
内存有限bfg (LBFGS)
正则化
“sparsa”
通过分离变量近似稀疏重建(SpaRSA)
正则化
λ
{“sgd”“lbfgs”}
“sgd”
“asgd”
“双重”
“lbfgs”
{“sgd”、“lbfgs”}
{“asgd”、“lbfgs”}
{“双”、“lbfgs”}
“sgd”
“asgd”
“sparsa”
{“sgd”、“sparsa”}
{“asgd”、“sparsa”}
“规划求解”,{‘sgd’,‘lbfgs}
β- - - - - -初始线性系数估计
0 (p,1)
(默认)|数值向量|数字矩阵
0 (p,1)
(默认)|初始线性系数的估计( 如果你指定一个 软件的优化使用 软件优化再次使用之前的预估结果,优化作为一个 软件实现第二步,直到耗尽所有的值 如果你指定一个 如果你设置 数据类型:λ
j
j
j
单
偏见- - - - - -最初的拦截估计
数字标量|数值向量
数字标量
初始拦截估计( 如果你指定一个标量,那么软件优化目标函数 软件的优化使用 使用结果估计,一个温暖的开始下一个优化迭代,并使用下一个最小值 软件实现第二步,直到耗尽所有的值 如果你指定一个 默认情况下: 如果 如果 数据类型:λ
j
j
j
学习者
j
单
FitBias- - - - - -线性模型拦截包含国旗
真正的
(默认)|假
真正的
(默认)|假
线性模型拦截包含标志,指定为逗号分隔组成的 例子: 数据类型:
价值 描述
真正的
该软件包括偏差项
假
该软件集 “FitBias”,假的
逻辑
PostFitBias- - - - - -国旗符合线性模型优化后拦截
假
(默认)|真正的
假
(默认)|真正的
国旗符合线性模型拦截优化后,指定为逗号分隔组成的 估计 估计 估计分类得分 不菲 如果您指定 例子: 数据类型:
价值 描述
假
软件估计偏差项
真正的
FitBias
“PostFitBias”,真的
逻辑
详细的- - - - - -冗长的水平
0
(默认)|1
0
(默认)|1
冗长的层面上,指定为逗号分隔组成的 例子: 数据类型:
价值 描述
0
templateLinear
1
templateLinear
“详细”,1
单
BatchSize- - - - - -Mini-batch大小
正整数
正整数
Mini-batch大小,指定为逗号分隔组成的 如果是一个数字矩阵的预测数据,那么默认值是 如果预测数据是一个稀疏矩阵,那么默认值是 例子: 数据类型:
“BatchSize”, 100年
单
LearnRate- - - - - -学习速率
积极的标量
积极的标量
学习速率,指定为逗号分隔组成的 如果
λ 如果 如果 如果 默认情况下, 例子: 数据类型:
正则化
λ
解算器
“LearnRate”, 0.01
单
OptimizeLearnRate- - - - - -降低学习速率的旗帜
真正的
(默认)|假
真正的
(默认)|假
国旗来减少软件检测时的学习速率差异(即over-stepping最低),指定为逗号分隔组成的 如果 一些优化迭代的,软件开始优化使用 如果目标函数的值增加,然后重启软件,并使用当前值的学习速率的一半。 软件迭代步骤2,直到目标函数下降。 例子: 数据类型:
LearnRate
“OptimizeLearnRate”,真的
逻辑
TruncationPeriod- - - - - -之间的mini-batches套索截断
10
(默认)|正整数
10
(默认)|之间的mini-batches套索截断,指定为逗号分隔组成的 截断后运行,软件应用的软阈值线性系数。处理后
SGD, ASGD, 如果 例子: 数据类型:
λ
正则化
“TruncationPeriod”, 100年
单
BatchLimit- - - - - -最大数量的批次
正整数
正整数
最大数量的批量处理,指定为逗号分隔组成的 默认情况下: 该软件通过数据 如果你指定多个连接器,并使用(A) SGD得到一个初始近似接下来的解算器,那么默认值是 如果您指定 例子: 数据类型:
PassLimit
BatchSize
”
“BatchLimit”, 100年
单
BetaTolerance- - - - - -相对公差线性系数和偏差项
1的军医
(默认)|负的标量
1的军医
(默认)|相对公差线性系数和偏差项(拦截),指定为逗号分隔组成的 让 如果软件是收敛的解算程序中指定 例子: 数据类型:解算器
e-6 BetaTolerance, 1
单
NumCheckConvergence- - - - - -批次处理下收敛之前检查
正整数
正整数
批次处理下收敛检查之前,指定为逗号分隔组成的 指定批处理大小,明白了 软件检查收敛大约10次默认通过整个数据集。 例子: 数据类型:BatchSize
“NumCheckConvergence”, 100年
单
PassLimit- - - - - -最大数量的经过
1
(默认)|正整数
1
(默认)|最大数量的经过数据,指定为逗号分隔组成的 当它完成一个所有观察值的软件过程通过数据。 当软件通过数据 如果您指定 例子: 数据类型:BatchLimit
“PassLimit”, 5
单
BetaTolerance- - - - - -相对公差线性系数和偏差项
1的军医
(默认)|负的标量
1的军医
(默认)|相对公差线性系数和偏差项(拦截),指定为逗号分隔组成的 让 如果你指定 如果软件是收敛的解算程序中指定 例子: 数据类型:DeltaGradientTolerance
解算器
e-6 BetaTolerance, 1
单
DeltaGradientTolerance- - - - - -Gradient-difference宽容
1
(默认)|负的标量
1
(默认)|Gradient-difference公差之间的上、下池 如果马违规者的大小小于 如果软件是收敛的解算程序中指定 例子: 数据类型:
解算器
依照“DeltaGradientTolerance”, 1
双
NumCheckConvergence- - - - - -数量的穿过整个数据集处理下收敛之前检查
5
(默认)|正整数
5
(默认)|数量的穿过整个数据集处理下收敛之前检查,指定为逗号分隔组成的 例子: 数据类型:“NumCheckConvergence”, 100年
单
PassLimit- - - - - -最大数量的经过
10
(默认)|正整数
10
(默认)|最大数量的经过数据,指定为逗号分隔组成的 当软件完成一个通过数据,处理所有的观察。 当软件通过数据 例子: 数据类型:“PassLimit”, 5
单
BetaTolerance- - - - - -相对公差线性系数和偏差项
1的军医
(默认)|负的标量
1的军医
(默认)|相对公差线性系数和偏差项(拦截),指定为负的标量。 让 如果你指定 如果软件是收敛的解算程序中指定 例子: 数据类型:GradientTolerance
解算器
e-6 BetaTolerance, 1
单
GradientTolerance- - - - - -绝对梯度宽容
1 e-6
(默认)|负的标量
1 e-6
(默认)|绝对梯度宽容,指定为负的标量。 让 如果你指定 如果软件收敛过去解算器中指定的软件,然后优化终止。否则,在指定的软件使用下一个解算器 例子: 数据类型:BetaTolerance
解算器
e-5 GradientTolerance, 1
单
HessianHistorySize- - - - - -历史缓冲区大小黑森近似
15
(默认)|正整数
15
(默认)|历史缓冲区大小黑森近似,指定为逗号分隔组成的 软件不支持金宝app 例子: 数据类型:“HessianHistorySize”, 10
单
IterationLimit- - - - - -最大数量的优化迭代
1000年
(默认)|正整数
1000年
(默认)|最大数量的优化迭代,指定为逗号分隔组成的 例子: 数据类型:解算器
“IterationLimit”, 500年
单
输出参数
t——学习者模板线性分类模型模板对象
线性分类模型学习模板,作为一个模板对象返回。训练一个线性分类模型使用高维数据进行多类问题,通过t来fitcecoc。
如果你显示t命令窗口,那么所有,未指定的选项出现空([])。然而,与相应的软件替换空选项默认值在训练。
t——学习者模板线性分类模型模板对象
线性分类模型学习模板,作为一个模板对象返回。训练一个线性分类模型使用高维数据进行多类问题,通过 如果你显示fitcecoc
更多关于
温暖的开始
一个温暖的开始初步估计的贝塔系数和偏见术语提供更快的收敛的优化程序。
温暖的开始
一个温暖的开始初步估计的贝塔系数和偏见术语提供更快的收敛的优化程序。
一个
提示
东方预测矩阵是一个最佳实践,观察对应列和指定“ObservationsIn”、“列”。作为一个结果,你可以体验在optimization-execution时间显著减少。
如果预测数据几乎没有观察,但许多预测变量,然后:
指定“PostFitBias”,真的。
SGD或ASGD解决者,集PassLimit大于1的正整数,例如,5或10。这个设置往往导致更好的精度。
SGD ASGD解决者,BatchSize影响了收敛速度。
如果BatchSize太小了,那么在许多迭代软件达到最低,但快速计算每个迭代的梯度。
如果BatchSize太大,那么软件达到最低在更少的迭代中,但慢慢地计算每个迭代的梯度。
大的学习速率(见LearnRate)加速收敛到最小值,但会导致分歧(即over-stepping最低)。小学习率确保收敛到最小值,但会导致缓慢的终止。
如果正则化是“套索”,然后尝试不同的值TruncationPeriod。例如,设置TruncationPeriod来1,10,然后One hundred.。
为了提高效率,软件不规范预测数据。标准化预测数据(X)你在东方观测为列,回车
X =正常化(X, 2);
如果你东方观测为行,输入
X =正常化(X);
对于经济的内存使用,代码替换原来的预测数据标准化的数据。
东方预测矩阵是一个最佳实践,观察对应列和指定
“ObservationsIn”、“列” 。作为一个结果,你可以体验在optimization-execution时间显著减少。 如果预测数据几乎没有观察,但许多预测变量,然后:
指定
“PostFitBias”,真的 。 SGD或ASGD解决者,集
PassLimit
大于1的正整数,例如,5或10。这个设置往往导致更好的精度。
SGD ASGD解决者,
BatchSize
影响了收敛速度。 如果
BatchSize 太小了,那么在许多迭代软件达到最低,但快速计算每个迭代的梯度。 如果
BatchSize 太大,那么软件达到最低在更少的迭代中,但慢慢地计算每个迭代的梯度。
大的学习速率(见
LearnRate
)加速收敛到最小值,但会导致分歧(即over-stepping最低)。小学习率确保收敛到最小值,但会导致缓慢的终止。 如果
正则化
是 “套索” ,然后尝试不同的值 TruncationPeriod
。例如,设置 TruncationPeriod 来 1 , 10 ,然后 One hundred. 。 为了提高效率,软件不规范预测数据。标准化预测数据(
X )你在东方观测为列,回车 X =正常化(X, 2);
如果你东方观测为行,输入
X =正常化(X);
对于经济的内存使用,代码替换原来的预测数据标准化的数据。
引用
[1],c·J。,K. W. Chang, C. J. Lin, S. S. Keerthi, and S. Sundararajan. “A Dual Coordinate Descent Method for Large-Scale Linear SVM.”学报》第25届国际会议上机器学习,ICML 08年,2001年,页408 - 415。
[2]兰福德,J。,l。li, and T. Zhang. “Sparse Online Learning Via Truncated Gradient.”j·马赫。学习。Res。10卷,2009年,页777 - 801。
[3]Nocedal, j .和s·j·莱特。数值优化第二版,纽约:施普林格,2006年。
[4]Shalev-Shwartz, S。,Y。Singer, and N. Srebro. “Pegasos: Primal Estimated Sub-Gradient Solver for SVM.”《24日国际会议在机器学习,ICML ' 07,2007年,页807 - 814。
[5]赖特,s . J。,R. D. Nowak, and M. A. T. Figueiredo. “Sparse Reconstruction by Separable Approximation.”反式。Proc团体。2009年,57卷,没有7日,第2479 - 2493页。
肖[6],林。“双重平均正规化方法随机学习和在线优化。”j·马赫。学习。Res。11卷,2010年,页2543 - 2596。
[7]徐,魏。“对最优传递规模与平均随机梯度下降学习。”相关系数、abs / 1107.2490, 2011年。
[1],c·J。,K. W. Chang, C. J. Lin, S. S. Keerthi, and S. Sundararajan. “A Dual Coordinate Descent Method for Large-Scale Linear SVM.”学报》第25届国际会议上机器学习,ICML 08年
[2]兰福德,J。,l。li, and T. Zhang. “Sparse Online Learning Via Truncated Gradient.”j·马赫。学习。Res。
[3]Nocedal, j .和s·j·莱特。
[4]Shalev-Shwartz, S。,Y。Singer, and N. Srebro. “Pegasos: Primal Estimated Sub-Gradient Solver for SVM.”《24日国际会议在机器学习,ICML ' 07
[5]赖特,s . J。,R. D. Nowak, and M. A. T. Figueiredo. “Sparse Reconstruction by Separable Approximation.”反式。Proc团体。
肖[6],林。“双重平均正规化方法随机学习和在线优化。”
[7]徐,魏。“对最优传递规模与平均随机梯度下降学习。”
扩展功能
高大的数组计算和数组的行比装入内存。
使用notes和限制当你训练模型,通过一个线性模型模板和高大的数组fitcecoc:
这些名称-值对参数的默认值是不同的,当你使用高数组。
“λ”- - -可以“汽车”(默认)或一个标量
“正规化”——金宝app只支持“岭”
“规划求解”——金宝app只支持“lbfgs”
“FitBias”——金宝app只支持真正的
“详细”默认值是1
“BetaTolerance”——默认值是放松1 e - 3
“GradientTolerance”——默认值是放松1 e - 3
“IterationLimit”——默认值是放松20.
当fitcecoc使用一个templateLinear与高数组对象,只LBFGS可用的解决者。软件实现LBFGS分布计算的损失和梯度的不同部分之间高在每个迭代数组。如果您没有指定初始值β和偏见,软件改进的初始估计的参数拟合模型局部地区的数据,结合平均系数。
有关更多信息,请参见高大的数组。
高大的数组计算和数组的行比装入内存。
使用notes和限制当你训练模型,通过一个线性模型模板和高大的数组 这些名称-值对参数的默认值是不同的,当你使用高数组。 当 有关更多信息,请参见fitcecoc
“λ”
“正规化”
“规划求解”
“FitBias”
“详细”
“BetaTolerance”
“GradientTolerance”
“IterationLimit”
版本历史
介绍了R2016a
介绍了R2016a
另请参阅
MATLAB命令
你点击一个链接对应MATLAB命令: 运行该命令通过输入MATLAB命令窗口。Web浏览器不支持MATLAB命令。金宝app
你也可以从下面的列表中选择一个网站: 选择中国网站(中文或英文)最佳站点的性能。其他MathWorks国家网站不优化的访问你的位置。表现最好的网站怎么走吗
欧洲