线性分类学习模板
templateLinear
该模板指定了二元学习器模型、正则化类型和强度以及求解器等。在创建模板之后,通过将模板和数据传递给fitcecoc
训练一个由多个二元、线性分类模型组成的ECOC模型。 加载NLP数据集。 创建一个默认的线性分类模型模板。 若要调整默认值,请参阅 训练由多个二元线性分类模型组成的ECOC模型,该模型可以根据文档网页上单词的频率分布来识别产品。为了更快的训练时间,将预测器数据转置,并指定观测值对应于列。 或者,您可以使用以下方法训练由默认线性分类模型组成的ECOC模型 为了节省内存,负载
X
t = templateLinear ();
X = X ';rng (1);
Mdl = CompactClassificationECOC ResponseName: 'Y' ClassNames: [comm dsp ecoder fixedpoint…]BinaryLearners: {78x1 cell} CodingMatrix: [13x78 double
指定可选的逗号分隔的对“学习者”,“物流”、“正规化”,“套索”、“CrossVal”,“上”
λ- - - - - -正则化项的力量
“汽车”
(默认)|负的标量|非负值向量
正则化项强度,指定为逗号分隔对组成 为 如果指定交叉验证,名称-值对参数(例如, 否则, 对于一个非负值的向量, 如果 如果 例子: 数据类型:
解算器
正则化
templateLinear
“λ”,10 ^ (- (10:2:2))
字符
学习者- - - - - -线性分类模型型
“支持向量机”
(默认)|“物流”
线性分类模型类型,指定为逗号分隔对组成 在这个表中, β x b 例子:
价值 算法 响应范围 损失函数
“支持向量机”
金宝app支持向量机 y 铰链:
“物流”
逻辑回归 一样
异常(物流):
“学习者”,“物流”
正则化- - - - - -复杂性处罚类型
“套索”
|“岭”
复杂度惩罚类型,指定为逗号分隔对,由 该软件由平均损失函数的总和组成最小化目标函数(见 要指定正则项强度,即 该软件排除了偏差项( 如果 提示 对于预测变量选择,指定 为优化精度,指定 例子:学习者
价值 描述
“套索”
套索(L1)罚款:
“岭”
脊(L2)罚款:
λ
解算器
“正规化”、“套索”
解算器- - - - - -目标函数最小化技术
“sgd”
|“asgd”
|“双重”
|“蓄热”|“lbfgs”|“sparsa”|字符串数组|字符向量的单元格数组
目标函数最小化技术,指定为逗号分隔对组成 如果你指定: 岭罚(见 支持向量机模型(见 一个套索惩罚和预测数据集包含100或更少的预测变量,那么默认解算器是 否则,默认解算器为 如果指定包含解析器名称的字符串数组或单元格数组,则 例子: 提示 SGD和ASGD比其他求解器更快地求解目标函数,而LBFGS和SpaRSA比其他求解器更精确。金宝搏官方网站解算器组合等 在SGD和ASGD之间选择时,考虑: SGD每次迭代花费的时间更少,但是需要更多的迭代来收敛。 ASGD需要更少的迭代来收敛,但是每个迭代需要更多的时间。 如果预测数据是高维的 尽管你可以设置其他组合,但它们往往导致精度较差的解决方案。金宝搏官方网站 如果预测数据是中等的,通过低维和 如果 例子:
价值 描述 限制
“sgd”
随机梯度下降法
“asgd”
平均随机梯度下降
“双重”
支持向量机的双SGD
正则化
必须学习者
“蓄热”
Broyden-Fletcher-Goldfarb-Shanno拟牛顿算法
效率低下,如果
“lbfgs”
内存有限bfg (LBFGS)
正则化
“sparsa”
可分离近似稀疏重建(SpaRSA)
正则化
λ
{“sgd”“lbfgs”}
“sgd”
“asgd”
“双重”
“lbfgs”
{“sgd”、“lbfgs”}
{“asgd”、“lbfgs”}
{“双”、“lbfgs”}
“sgd”
“asgd”
“sparsa”
{“sgd”、“sparsa”}
{“asgd”、“sparsa”}
“规划求解”,{‘sgd’,‘lbfgs}
β- - - - - -初始线性系数估计
0 (p, 1)
(默认)|数值向量|数字矩阵
初始线性系数估计值( 如果你指定 该软件优化使用 该软件再次优化使用的结果估计从以前的优化作为 软件执行步骤2,直到它耗尽所有的值 如果你指定 如果你设置 数据类型:λ
j
j
j
单
偏见- - - - - -最初的拦截估计
数字标量|数值向量
初步截距估计( 如果指定一个标量,那么软件将优化目标函数 该软件优化使用 使用得到的估计作为下一个优化迭代的温暖开始,并使用中下一个最小的值 软件执行步骤2,直到它耗尽所有的值 如果指定 默认情况下: 如果 如果 数据类型:λ
j
j
j
学习者
j
单
FitBias- - - - - -线性模型截距包含标志
真正的
(默认)|假
线性模型截距包含标志,指定为逗号分隔对组成 例子: 数据类型:
价值 描述
真正的
该软件包括偏见术语
假
该软件集 “FitBias”,假的
逻辑
PostFitBias- - - - - -标志拟合线性模型截距优化后
假
(默认)|真正的
对拟合的标志进行线性模型截距优化后,指定为逗号分隔对组成 估计 估计 估计分类得分 不菲 如果您指定 例子: 数据类型:
价值 描述
假
软件估计偏差项
真正的
FitBias
“PostFitBias”,真的
逻辑
详细的- - - - - -冗长的水平
0
(默认)|1
详细程度,指定为逗号分隔对,由 例子: 数据类型:
价值 描述
0
templateLinear
1
templateLinear
“详细”,1
单
BatchSize- - - - - -Mini-batch大小
正整数
小批量大小,指定为逗号分隔的对,由 如果预测器数据是一个数字矩阵,则默认值为 如果预测数据为稀疏矩阵,则默认值为 例子: 数据类型:
“BatchSize”,100年
单
LearnRate- - - - - -学习速率
积极的标量
学习率,指定为逗号分隔对组成 如果
λ 如果 如果 如果 默认情况下, 例子: 数据类型:
正则化
λ
解算器
“LearnRate”,0.01
单
OptimizeLearnRate- - - - - -降低学习速度的标志
真正的
(默认)|假
当软件检测到偏离(即超过最小值)时,降低学习率的标志,指定为逗号分隔对组成 如果 对于少量的优化迭代,软件开始优化使用 如果目标函数的值增加,则软件重新启动,并使用当前学习率值的一半。 软件迭代第2步,直到目标函数减小。 例子: 数据类型:
LearnRate
“OptimizeLearnRate”,真的
逻辑
TruncationPeriod- - - - - -套索截断运行之间的小批量数量
10
(默认)|正整数
在套索截断运行之间的小批数量,指定为逗号分隔对,由 经过截断运行后,软件对线性系数应用软阈值。即经过处理
SGD, ASGD, 如果 例子: 数据类型:
λ
正则化
“TruncationPeriod”,100年
单
BatchLimit- - - - - -最大批数
正整数
要处理的最大批数,指定为由逗号分隔的对组成 默认情况下: 软件通过数据 如果您指定多个求解器,并使用(A)SGD来获得下一个求解器的初始近似,则默认值为 如果您指定 如果您指定 例子: 数据类型:
PassLimit
BatchSize
'
PassLimit
'
“BatchLimit”,100年
单
BetaTolerance- - - - - -线性系数和偏差项的相对公差
1的军医
(默认)|负的标量
相对公差对线性系数和偏差项(截距),指定为逗号分隔对组成 让 中指定的最后一个求解器的软件收敛 例子: 数据类型:解算器
e-6 BetaTolerance, 1
单
NumCheckConvergence- - - - - -在下次收敛检查前要加工的批数
正整数
下次收敛检查前要处理的批数,指定为逗号分隔对组成 要指定批大小,请参见 默认情况下,软件每次通过整个数据集检查10次收敛。 例子: 数据类型:BatchSize
“NumCheckConvergence”,100年
单
PassLimit- - - - - -最大通过数
1
(默认)|正整数
通过数据的最大次数,由逗号分隔的对组成 软件处理所有的观察,当它完成一次通过的数据。 当软件通过数据时 如果您指定 例子: 数据类型:BatchLimit
'
“PassLimit”,5
单
BetaTolerance- - - - - -线性系数和偏差项的相对公差
1的军医
(默认)|负的标量
相对公差对线性系数和偏差项(截距),指定为逗号分隔对组成 让 如果你也指定 中指定的最后一个求解器的软件收敛 例子: 数据类型:DeltaGradientTolerance
解算器
e-6 BetaTolerance, 1
单
DeltaGradientTolerance- - - - - -Gradient-difference宽容
1
(默认)|负的标量
上下池之间的梯度差公差 如果KKT违反者的大小小于 中指定的最后一个求解器的软件收敛 例子: 数据类型:
解算器
依照“DeltaGapTolerance”,1
双
NumCheckConvergence- - - - - -在下一次收敛检查之前,经过整个数据集处理的次数
5
(默认)|正整数
在下一次收敛检查前通过整个数据集进行处理的次数,指定为逗号分隔对组成 例子: 数据类型:“NumCheckConvergence”,100年
单
PassLimit- - - - - -最大通过数
10
(默认)|正整数
通过数据的最大次数,由逗号分隔的对组成 当软件完成一次遍历数据时,它已经处理了所有的观察结果。 当软件通过数据时 例子: 数据类型:“PassLimit”,5
单
BetaTolerance- - - - - -线性系数和偏差项的相对公差
1的军医
(默认)|负的标量
相对公差对线性系数和偏差项(截距),指定为逗号分隔对组成 让 如果你也指定 中指定的最后一个求解器的软件收敛 例子: 数据类型:GradientTolerance
解算器
e-6 BetaTolerance, 1
单
GradientTolerance- - - - - -绝对梯度宽容
1 e-6
(默认)|负的标量
绝对梯度容差,指定为逗号分隔对,由 让 如果你也指定 如果软件收敛到软件中指定的最后一个求解器,则优化终止。否则,软件将使用中指定的下一个求解器 例子: 数据类型:BetaTolerance
解算器
e-5 GradientTolerance, 1
单
HessianHistorySize- - - - - -用于Hessian近似的历史缓冲区的大小
15
(默认)|正整数
用于Hessian近似的历史缓冲区的大小,指定为逗号分隔对组成 软件不支持金宝app 例子: 数据类型:“HessianHistorySize”,10
单
IterationLimit- - - - - -最大优化迭代次数
1000
(默认)|正整数
最大优化迭代次数,指定为逗号分隔对组成 例子: 数据类型:解算器
“IterationLimit”,500年
单
t-线性分类模型学习模板模板对象
线性分类模型学习者模板,返回为模板对象。通过使用高维数据训练线性分类模型来处理多类问题 如果你显示fitcecoc
一个
最好的做法是调整预测器矩阵的方向,使观察结果与列对应并指定
如果预测数据的观测值很少,但预测变量很多,那么: 指定 对于SGD或ASGD求解器,请设置
PassLimit
对于SGD和ASGD求解器, 如果 如果BatchSize
大的学习速率(见LearnRate
如果正则化
TruncationPeriod
为了提高效率,该软件没有标准化预测数据。将预测数据标准化( 代码要求您将预测器和观察值定位为的行和列X = bsxfun (@rdivide bsxfun (@minus X,意味着(X, 2)),性病(0,2));
张国伟,林家杰,S. S. Keerthi, S. S. Sundararajan。“大规模线性支持向量机的双坐标下降方法”。
李磊,张涛。“基于截断梯度的稀疏在线学习”。
Nocedal, J.和S. J. Wright。
谢勒夫-施瓦茨,S. Y.辛格和N.斯雷布罗。Pegasos:支持向量机的原始估计次梯度求解器
莱特,S. J., R. D.诺瓦克,M. A. T. Figueiredo。“可分离近似稀疏重建”。
肖[6],林。“正则化随机学习和在线优化的双重平均方法”。
[7]徐,魏。“基于平均随机梯度下降的最优一次大规模学习”。
通过传递线性模型模板和高数组来训练模型时的使用注意事项和限制 当使用高数组时,这些名称-值对参数的默认值是不同的。 当 有关更多信息,请参见fitcecoc
“λ”
“正规化”
“规划求解”
“FitBias”
“详细”
“BetaTolerance”
“GradientTolerance”
“IterationLimit”
你点击一个链接对应于这个MATLAB命令: 通过在MATLAB命令窗口中输入命令来运行命令。Web浏览器不支持MATLAB命令。金宝app
选择一个网站,在那里获得翻译的内容,并看到当地的活动和优惠。根据您的位置,我们建议您选择:
你也可以从以下列表中选择一个网站: 选择中国网站(中文或英文)以获得最佳网站性能。其他MathWorks国家站点没有针对您所在位置的访问进行优化。如何获得最佳的网站性能
欧洲