线性分类学习模板
TemplateLinear.
该模板指定了二元学习器模型、正则化类型和强度以及求解器等。在创建模板之后,通过将模板和数据传递给Fitcecoc.
训练一个由多个二元、线性分类模型组成的ECOC模型。 加载NLP数据集。 创建一个默认的线性分类模型模板。 若要调整默认值,请参阅 培训由多个二进制线性分类模型组成的ECOC模型,可以识别产品在文档网页上的单词的频率分布。对于更快的培训时间,转换预测器数据,并指定观察对应于列。 或者,您可以使用以下方法训练由默认线性分类模型组成的ECOC模型 为了节省内存,负载
X
t = templateLinear ();
x = x';RNG(1);
Mdl = CompactClassificationECOC ResponseName: 'Y' ClassNames: [1x13 categorical] ScoreTransform: 'none' BinaryLearners: {78x1 cell} CodingMatrix: [13x78 double]属性,方法
指定可选的逗号分隔的对“学习者”,“物流”、“正规化”,“套索”、“CrossVal”,“上”
“λ”- - - - - -正则化项的力量
“汽车”
(默认)|负的标量|非负值向量
正则化项强度,指定为逗号分隔对组成 为 如果指定交叉验证,名称-值对参数(例如, 否则, 对于非负值的向量, 如果 如果 例子: 数据类型:
解算器
正则化
TemplateLinear.
'lambda',10。^( - (10:-2:2))
字符
“学习者”- - - - - -线性分类模型型
'svm'
(默认)|“物流”
线性分类模型类型,指定为逗号分隔对组成 在这个表中, β x b 例子:
价值 算法 响应范围 损失函数
'svm'
金宝app支持向量机 y 铰链:
“物流”
物流回归 一样
偏差(物流):
“学习者”,“物流”
“正规化”- - - - - -复杂性处罚类型
“套索”
|'岭'
复杂度惩罚类型,指定为逗号分隔对,由 该软件组成目标函数,以便从平均损耗函数的总和中最小化(参见 要指定正则项强度,即 该软件排除了偏差项( 如果 提示 对于预测变量选择,指定 为优化精度,指定 例子:学习者
价值 描述
“套索”
套索(L1)罚款:
'岭'
脊(L2)罚款:
λ
解算器
“正规化”、“套索”
'求解'- - - - - -目标函数最小化技术
“sgd”
|“asgd”
|“双重”
|'bfgs'|“lbfgs”|“sparsa”|字符串数组|字符向量的单元格数组
目标函数最小化技术,指定为逗号分隔对组成 如果你指定: 岭罚(见 支持向量机模型(见 一个套索惩罚和预测数据集包含100或更少的预测变量,那么默认解算器是 否则,默认解算器为 有关选择哪个求解器的详细信息,请参见 例子:
价值 描述 限制
“sgd”
随机梯度下降(SGD)
“asgd”
平均随机梯度下降
“双重”
支持向量机的双SGD
正则化
必须学习者
'bfgs'
Broyden-Fletcher-Goldfarb-Shanno拟牛顿算法
效率低下,如果
“lbfgs”
有限的记忆BFGS(LBFG)
正则化
“sparsa”
可分离近似(sparsa)稀疏重建
正则化
“规划求解”,{‘sgd’,‘lbfgs}
'beta'- - - - - -初始线性系数估计
0 (p,1)
(默认)|数值向量|数字矩阵
初始线性系数估计( 如果您指定了一个 该软件优化使用 该软件再次优化使用的结果估计从以前的优化作为 软件执行步骤2,直到它耗尽所有的值 如果您指定了一个 如果你设置了 数据类型:λ
j
j
j
单身的
“偏见”- - - - - -最初的拦截估计
数字标量|数值向量
初步截距估计( 如果指定一个标量,那么软件将优化目标函数 该软件优化使用 使用得到的估计作为下一个优化迭代的温暖开始,并使用中下一个最小的值 软件执行步骤2,直到它耗尽所有的值 如果指定 默认情况下: 如果 如果 数据类型:λ
j
j
j
学习者
j
单身的
'fitbias'- - - - - -线性模型拦截包含标志
真的
(默认)|假
线性模型截距包含标志,指定为逗号分隔对组成 例子: 数据类型:
价值 描述
真的
该软件包括BIAS项
假
该软件集 'fitbias',false
逻辑
'postfitbias'- - - - - -标志拟合线性模型截距优化后
假
(默认)|真的
对拟合的标志进行线性模型截距优化后,指定为逗号分隔对组成 估计 估计 估计分类分数 不菲 如果您指定 例子: 数据类型:
价值 描述
假
该软件估计偏差项
真的
FitBias
'postfitbias',true
逻辑
“详细”- - - - - -冗长水平
0
(默认)|1
详细程度,指定为逗号分隔对,由 例子: 数据类型:
价值 描述
0
TemplateLinear.
1
TemplateLinear.
'verbose',1
单身的
“BatchSize”- - - - - -Mini-batch大小
正整数
迷你批量大小,指定为逗号分隔对组成 如果预测器数据是数字矩阵,则默认值是 如果预测器数据是稀疏矩阵,则默认值是 例子: 数据类型:
'Batchsize',100
单身的
“LearnRate”- - - - - -学习速率
积极的标量
学习率,指定为逗号分隔对组成 如果
λ 如果 如果 如果 默认情况下, 例子: 数据类型:
正则化
λ
解算器
“LearnRate”,0.01
单身的
“OptimizeLearnRate”- - - - - -降低学习速度的标志
真的
(默认)|假
当软件检测到偏离(即超过最小值)时,降低学习率的标志,指定为逗号分隔对组成 如果 对于少数优化迭代,软件开始使用优化 如果目标函数的值增加,则软件重新启动,并使用当前学习率值的一半。 软件迭代第2步,直到目标函数减小。 例子: 数据类型:
LearnRate
'OptimizeLearnrate',真实
逻辑
“TruncationPeriod”- - - - - -套索截断运行之间的迷你批次数量
10.
(默认)|正整数
在套索截断运行之间的小批数量,指定为逗号分隔对,由 经过截断运行后,软件对线性系数应用软阈值。即经过处理
SGD, ASGD, 如果 例子: 数据类型:
λ
正则化
“TruncationPeriod”,100年
单身的
“BatchLimit”- - - - - -最大批数
正整数
要处理的最大批数,指定为由逗号分隔的对组成 默认情况下: 软件通过数据 如果您指定多个求解器,并使用(A)SGD来获得下一个求解器的初始近似,则默认值为 如果您指定 如果您指定 例子: 数据类型:
PassLimit
BatchSize
'
PassLimit
'
'batchlimit',100
单身的
“BetaTolerance”- - - - - -线性系数和偏差项的相对公差
1的军医
(默认)|负的标量
相对公差对线性系数和偏差项(截距),指定为逗号分隔对组成 让 中指定的最后一个求解器的软件收敛 例子: 数据类型:解算器
e-6 BetaTolerance, 1
单身的
“NumCheckConvergence”- - - - - -在下次收敛检查前要加工的批数
正整数
下次收敛检查前要处理的批数,指定为逗号分隔对组成 要指定批大小,请参见 软件检查每次通过整个数据设置约10次的收敛。 例子: 数据类型:BatchSize
“NumCheckConvergence”,100年
单身的
'passlimit'- - - - - -最大通过数
1
(默认)|正整数
通过数据的最大次数,由逗号分隔的对组成 软件处理所有的观察,当它完成一次通过的数据。 当软件通过数据时 如果您指定 例子: 数据类型:BatchLimit
'
'passlimit',5
单身的
“BetaTolerance”- - - - - -线性系数和偏差项的相对公差
1的军医
(默认)|负的标量
相对公差对线性系数和偏差项(截距),指定为逗号分隔对组成 让 如果你也指定 中指定的最后一个求解器的软件收敛 例子: 数据类型:DeltaGradientTolerance
解算器
e-6 BetaTolerance, 1
单身的
'deltagradienttolerance'- - - - - -Gradient-difference宽容
1
(默认)|负的标量
上部和下部池之间的梯度差分容差 如果KKT违反者的大小小于 中指定的最后一个求解器的软件收敛 例子: 数据类型:
解算器
依照“DeltaGapTolerance”,1
双
“NumCheckConvergence”- - - - - -在下一次收敛检查之前,经过整个数据集处理的次数
5
(默认)|正整数
在下一次收敛检查前通过整个数据集进行处理的次数,指定为逗号分隔对组成 例子: 数据类型:“NumCheckConvergence”,100年
单身的
'passlimit'- - - - - -最大通过数
10.
(默认)|正整数
通过数据的最大次数,由逗号分隔的对组成 当软件完成一次遍历数据时,它已经处理了所有的观察结果。 当软件通过数据时 例子: 数据类型:'passlimit',5
单身的
“BetaTolerance”- - - - - -线性系数和偏差项的相对公差
1的军医
(默认)|负的标量
相对公差对线性系数和偏差项(截距),指定为逗号分隔对组成 让 如果你也指定 中指定的最后一个求解器的软件收敛 例子: 数据类型:GradientTolerance
解算器
e-6 BetaTolerance, 1
单身的
“GradientTolerance”- - - - - -绝对梯度宽容
1 e-6
(默认)|负的标量
绝对梯度容差,指定为逗号分隔对,由 让 如果你也指定 如果软件收敛到软件中指定的最后一个求解器,则优化终止。否则,软件将使用中指定的下一个求解器 例子: 数据类型:BetaTolerance
解算器
e-5 GradientTolerance, 1
单身的
“HessianHistorySize”- - - - - -Hessian近似的历史缓冲区的大小
15.
(默认)|正整数
Hessian近似的历史缓冲区的大小,指定为逗号分隔对组成 该软件不支持金宝app 例子: 数据类型:“HessianHistorySize”,10
单身的
“IterationLimit”- - - - - -最大数量的优化迭代
1000
(默认)|正整数
最大数量的优化迭代,指定为逗号分隔对 例子: 数据类型:解算器
“IterationLimit”,500年
单身的
t-线性分类模型学习模板模板对象
线性分类模型学习者模板,返回为模板对象。通过使用高维数据训练线性分类模型来处理多类问题 如果你显示Fitcecoc.
一个
这是一个最佳实践,以使预测器矩阵定位,以便观察对应于列并指定
如果预测器数据是高维的,则以更好的优化准确性 其他组合可能导致优化精度差。正则化
解算器
“sgd”
“asgd”
“双重”
学习者
{“sgd”、“lbfgs”}
{“asgd”、“lbfgs”}
{“双”、“lbfgs”}
为了更好的优化精度,如果预测器数据是中等的-通过低维和
如果
“sgd”
“asgd”
“sparsa”
{“sgd”、“sparsa”}
{“asgd”、“sparsa”}
在SGD和ASGD之间选择时,考虑: SGD每次迭代时间少花时间,但需要更多的迭代来融合。 ASGD需要较少的迭代来融合,但需要更多的迭代时间。
如果预测数据的观测值很少,但预测变量很多,那么: 指定 对于SGD或ASGD求解器,请设置
PassLimit
对于SGD和ASGD求解器, 如果 如果BatchSize
较大的学习率(见LearnRate
如果TruncationPeriod
为了提高效率,该软件没有标准化预测数据。将预测数据标准化( 代码要求您将预测器和观察值定位为的行和列x = bsxfun(@ rdivide,bsxfun(@ minus,x,意思(x,2)),std(x,0,2));
张国伟,林家杰,S. S. Keerthi, S. S. Sundararajan。“大规模线性支持向量机的双坐标下降方法”。
[2] Langford,J.,L. Li和T.张。“通过截断的渐变稀疏在线学习。”
Nocedal, J.和S. J. Wright。
谢勒夫-施瓦茨,S. Y.辛格和N.斯雷布罗。Pegasos:支持向量机的原始估计次梯度求解器
莱特,S. J., R. D.诺瓦克,M. A. T. Figueiredo。“可分离近似稀疏重建”。
肖[6],林。“正则化随机学习和在线优化的双重平均方法”。
[7]徐,魏。“基于平均随机梯度下降的最优一次大规模学习”。
通过传递线性模型模板和高数组来训练模型时的使用注意事项和限制 当使用高数组时,这些名称-值对参数的默认值是不同的。 当 有关更多信息,请参见Fitcecoc.
“λ”
“正规化”
'求解'
'fitbias'
“详细”
“BetaTolerance”
“GradientTolerance”
“IterationLimit”
你点击一个链接对应于这个MATLAB命令: 通过在MATLAB命令窗口中输入命令来运行命令。Web浏览器不支持MATLAB命令。金宝app
选择一个网站,以便在可用的地方进行翻译的内容,并查看本地活动和优惠。根据您的位置,我们建议您选择:
你也可以从以下列表中选择一个网站: 选择中国网站(中文或英文)以获得最佳网站性能。其他MathWorks国家站点没有针对您所在位置的访问进行优化。如何获得最佳网站性能
欧洲