线性分类学习模板
templateLinear
该模板指定了二元学习器模型、正则化类型和强度以及求解器等。在创建模板之后,通过将模板和数据传递给fitcecoc
培训由多个二进制线性分类模型组成的ECOC模型。 加载NLP数据集。 创建一个默认的线性分类模型模板。 要调整默认值,请参阅 训练由多个二元线性分类模型组成的ECOC模型,该模型可以根据文档网页上单词的频率分布来识别产品。为了更快的训练时间,将预测器数据转置,并指定观测值对应于列。 或者,您可以使用以下方法训练由默认线性分类模型组成的ECOC模型 为了节省内存,加载
X
y
t = templatelinear();
templateLinear
X = X ';rng (1);
Mdl = CompactClassificationECOC ResponseName: 'Y' ClassNames: [comm dsp ecoder fixedpoint…]BinaryLearners: {78x1 cell} CodingMatrix: [13x78 double
'学习者','线性'
fitcecoc
CompactClassificyCoc.
指定可选的逗号分离对名称,值
的名字
价值
的名字
Name1, Value1,…,的家
“学习者”,“物流”、“正规化”,“套索”、“CrossVal”,“上”
lambda.-正则化项的力量
'汽车'
(默认)|负的标量|非负值向量
正则化术语力量,指定为逗号分隔的配对组成 为了 如果指定交叉验证,名称值对参数(例如, 否则, 对于一个非负值的向量, 如果 如果 例子: 数据类型:'lambda'
'汽车'
'汽车'
lambda.
横梁
templateLinear
lambda.
解算器
'SGD'
“asgd”
正则化
“套索”
templateLinear
templateLinear
正则化
“套索”
templateLinear
lambda.
templateLinear
“λ”,10 ^ (- (10:2:2))
字符
字符串
双
单
学习者-线性分类模型型
“支持向量机”
(默认)|'逻辑'
线性分类模型类型,指定为逗号分隔对组成 在这个表中, β X B. 例子:“学习者”
“支持向量机”
'逻辑'
价值 算法 响应范围 损失函数
“支持向量机”
金宝app支持向量机 y 合页:
'逻辑'
逻辑回归 与...一样
“支持向量机”
异常(物流):
'学习者','Logistic'
正则化-复杂性惩罚类型
“套索”
|“岭”
复杂性惩罚类型,指定为逗号分隔对组成 该软件由平均损失函数的总和组成最小化目标函数(见 指定正规化术语实力,即 该软件不包括偏差项( 如果 提示 对于预测变量选择,指定 为优化精度,指定 例子:'正规化'
“套索”
“岭”
学习者
价值 描述
“套索”
套索(L1)罚款:
“岭”
山脊(L2)罚款:
lambda.
解算器
'sparsa'
正则化
“套索”
“岭”
“套索”
“岭”
'正规化','套索'
解算器-目标函数最小化技术
'SGD'
|“asgd”
|“双重”
|“蓄热”|“lbfgs”|'sparsa'|字符串数组|字符向量的单元格数组
目标函数最小化技术,指定为逗号分隔对组成 如果您指定: 岭罚(见 SVM模型(见 一个套索惩罚和预测数据集包含100或更少的预测变量,那么默认解算器是 否则,默认解算器为 如果为每个值指定Solver名称的字符串数组或单元格数组,则为每个值 例子: 提示 SGD和ASGD比其他求解器更快地求解目标函数,而LBFGS和SpaRSA比其他求解器更精确。金宝搏官方网站解算器组合等 在选择SGD和ASGD时,请考虑: SGD每次迭代花费的时间更少,但是需要更多的迭代来收敛。 ASGD需要更少的迭代来收敛,但是每个迭代需要更多的时间。 如果预测数据是高维的 尽管你可以设置其他组合,但它们往往导致精度较差的解决方案。金宝搏官方网站 如果预测数据是中等的,通过低维和 如果 例子:“规划求解”
价值 描述 限制
'SGD'
随机梯度下降法
“asgd”
平均随机梯度下降
“双重”
支持向量机的双SGD
正则化
必须“岭”
学习者
“支持向量机”
“蓄热”
Broyden-Fletcher-Goldfarb-Shanno拟牛顿算法
效率低下 X
“lbfgs”
内存有限bfg (LBFGS)
正则化
“岭”
'sparsa'
可分离近似稀疏重建(SpaRSA)
正则化
“套索”
正则化
“蓄热”
学习者
“双重”
'sparsa'
'SGD'
lambda.
{“sgd”“lbfgs”}
{“sgd”“lbfgs”}
{“sgd”“sparsa”}
正则化
“岭”
解算器
'SGD'
“asgd”
“双重”
学习者
“支持向量机”
“lbfgs”
{“sgd”、“lbfgs”}
{“asgd”、“lbfgs”}
{“双”、“lbfgs”}
学习者
“支持向量机”
正则化
“岭”
解算器
“蓄热”
正则化
“套索”
解算器
'SGD'
“asgd”
'sparsa'
{'sgd','sparsa'}
{“asgd”、“sparsa”}
“规划求解”,{‘sgd’,‘lbfgs}
β-初始线性系数估计
0 (P., 1)
(默认)|数值向量|数字矩阵
初始线性系数估计值( 如果你指定 该软件优化使用 该软件再次优化使用的结果估计从以前的优化作为 软件实现步骤2,直到它排出所有值 如果你指定 如果你设置 数据类型:“β”
X
lambda.
β
lambda.
lambda.
lambda.
j
β(:,
j
lambda.
λ(
j
'求解','dual'
β
单
双
偏见-初始拦截估计
数字标量|数值向量
初始拦截估计( 如果指定一个标量,那么软件将优化目标函数 该软件优化使用 使用得到的估计作为下一个优化迭代的温暖开始,并使用中下一个最小的值 软件实现步骤2,直到它排出所有值 如果指定 默认情况下: 如果 如果 数据类型:“偏见”
lambda.
偏见
lambda.
lambda.
lambda.
j
偏差(
j
lambda.
λ(
j
学习者
'逻辑'
Y (
j
偏见
学习者
“支持向量机”
偏见
单
双
FitBias-线性模型截距包含标志
真正的
(默认)|错误的
线性模型拦截包含标志,指定为逗号分隔对组成 例子: 数据类型:“FitBias”
真正的
错误的
价值 描述
真正的
该软件包括偏见术语
错误的
该软件集 “FitBias”,假的
逻辑
PostFitBias-优化后,标志适合线性模型拦截
错误的
(默认)|真正的
对拟合的标志进行线性模型截距优化后,指定为逗号分隔对组成 估计 估计 估计分类得分 不菲 如果您指定 例子: 数据类型:“PostFitBias”
真正的
错误的
价值 描述
错误的
软件估计偏差项
真正的
真正的
FitBias
“PostFitBias”,真的
逻辑
详细的-冗长的水平
0.
(默认)|1
详细程度,指定为逗号分隔对,由 例子: 数据类型:“详细”
0.
1
详细的
价值 描述
0.
templateLinear
1
templateLinear
“详细”,1
单
双
BatchSize-Mini-batch大小
正整数
小批量大小,指定为逗号分隔的对,由 如果预测器数据是一个数字矩阵,则默认值为 如果预测数据为稀疏矩阵,则默认值为 例子: 数据类型:“BatchSize”
BatchSize
10
马克斯([10日装天花板(sqrt (ff))))
ff =元素个数(X) / nnz (X)
X
“BatchSize”,100年
单
双
LearnRate-学习率
正标量
学习率,指定为逗号分隔对组成 如果
λ 如果 如果 如果 默认情况下, 例子: 数据类型:'学习'
LearnRate
正则化
“岭”
LearnRate
templateLinear
lambda.
解算器
'SGD'
解算器
“asgd”
正则化
“套索”
LearnRate
LearnRate
1 / sqrt(1 + max((sum(x. ^ 2,obsdim)))))))
obsdim.
1
X
2
“LearnRate”,0.01
单
双
OptimizeLearnRate-旗帜减少学习率
真正的
(默认)|错误的
当软件检测到偏离(即超过最小值)时,降低学习率的标志,指定为逗号分隔对组成 如果 对于少量的优化迭代,软件开始优化使用 如果目标函数的值增加,则软件重新启动,并使用当前学习率值的一半。 软件迭代步骤2,直到目标函数减少。 例子: 数据类型:“OptimizeLearnRate”
真正的
错误的
OptimizeLearnRate
“真正的”
LearnRate
“OptimizeLearnRate”,真的
逻辑
TruncationPeriod-套索截断运行之间的小批量数量
10
(默认)|正整数
在套索截断运行之间的小批数量,指定为逗号分隔对,由 经过截断运行后,软件对线性系数应用软阈值。即经过处理
SGD, ASGD, 如果 例子: 数据类型:“TruncationPeriod”
TruncationPeriod
lambda.
正则化
“岭”
TruncationPeriod
“TruncationPeriod”,100年
单
双
BatchLimit-最大批数
正整数
要处理的最大批数,指定为由逗号分隔的对组成 默认情况下: 软件通过数据 如果您指定多个求解器,并使用(A)SGD来获得下一个求解器的初始近似,则默认值为 如果您指定 如果您指定 例子: 数据类型:“BatchLimit”
BatchLimit
PassLimit
装天花板(1 e6 / BatchSize)
BatchSize
'
BatchSize
'
“BatchLimit”
'
PassLimit
'
“BatchLimit”
“PassLimit”
“BatchLimit”,100年
单
双
betaTolerance.-线性系数和偏差项的相对公差
1的军医
(默认)|负的标量
相对公差对线性系数和偏差项(截距),指定为逗号分隔对组成 让 中指定的最后一个求解器的软件收敛 例子: 数据类型:“BetaTolerance”
解算器
解算器
e-6 BetaTolerance, 1
单
双
NumCheckConvergence-在下次收敛检查前要加工的批数
正整数
在下一个收敛检查之前处理的批次数量,指定为包括的逗号分隔对 要指定批大小,请参见 默认情况下,软件每次通过整个数据集检查10次收敛。 例子: 数据类型:“NumCheckConvergence”
BatchSize
“NumCheckConvergence”,100年
单
双
PassLimit-最大通过数
1
(默认)|正整数
通过数据的最大次数,由逗号分隔的对组成 软件处理所有的观察,当它完成一次通过的数据。 当软件通过数据时 如果您指定 例子: 数据类型:“PassLimit”
PassLimit
'
BatchLimit
'
PassLimit
“PassLimit”,5
单
双
betaTolerance.-线性系数和偏差项的相对公差
1的军医
(默认)|负的标量
相对公差对线性系数和偏差项(截距),指定为逗号分隔对组成 让 如果你也指定 中指定的最后一个求解器的软件收敛 例子: 数据类型:“BetaTolerance”
deltagradienttolerance.
解算器
解算器
e-6 BetaTolerance, 1
单
双
deltagradienttolerance.-Gradient-difference宽容
1
(默认)|负的标量
上下池之间的梯度差公差 如果KKT违反者的大小小于 中指定的最后一个求解器的软件收敛 例子: 数据类型:“DeltaGradientTolerance”
deltagradienttolerance.
解算器
解算器
依照“DeltaGapTolerance”,1
双
单
NumCheckConvergence-在下一次收敛检查之前,经过整个数据集处理的次数
5.
(默认)|正整数
在下一次收敛检查前通过整个数据集进行处理的次数,指定为逗号分隔对组成 例子: 数据类型:“NumCheckConvergence”
“NumCheckConvergence”,100年
单
双
PassLimit-最大通过数
10
(默认)|正整数
通过数据的最大次数,由逗号分隔的对组成 当软件完成一个通过数据时,它处理了所有观察。 当软件通过数据时 例子: 数据类型:“PassLimit”
PassLimit
“PassLimit”,5
单
双
betaTolerance.-线性系数和偏差项的相对公差
1的军医
(默认)|负的标量
相对公差对线性系数和偏差项(截距),指定为逗号分隔对组成 让 如果你也指定 中指定的最后一个求解器的软件收敛 例子: 数据类型:“BetaTolerance”
梯度特拉
解算器
解算器
e-6 BetaTolerance, 1
单
双
梯度特拉-绝对梯度宽容
1 e-6
(默认)|负的标量
绝对梯度容差,指定为逗号分隔对组成 让 如果你也指定 如果软件会聚在软件中指定的最后一个解算器,则优化终止。否则,该软件使用指定的下一个解算程序 例子: 数据类型:“GradientTolerance”
betaTolerance.
解算器
'GradientTolerance',1E-5
单
双
HessianHistorySize-用于Hessian近似的历史缓冲区的大小
15
(默认)|正整数
用于Hessian近似的历史缓冲区的大小,指定为逗号分隔对组成 软件不支持金宝app 例子: 数据类型:'Hessianhistorysize'
HessianHistorySize
'Hessianhistorysize'
“HessianHistorySize”,10
单
双
IterationLimit-最大优化迭代次数
1000
(默认)|正整数
最大优化迭代次数,指定为逗号分隔对组成 例子: 数据类型:'iterationlimit'
IterationLimit
解算器
“蓄热”
“lbfgs”
'sparsa'
“IterationLimit”,500年
单
双
T.-线性分类模型学习模板模板对象
线性分类模型学习者模板,返回为模板对象。通过使用高维数据训练线性分类模型来处理多类问题 如果你显示T.
fitcecoc
T.
[]
一种
最好的做法是调整预测器矩阵的方向,使观察结果与列对应并指定“ObservationsIn”、“列”
如果预测数据的观测值很少,但预测变量很多,那么: 指定 对于SGD或ASGD求解器,请设置
“PostFitBias”,真的
PassLimit
对于SGD和ASGD求解器, 如果 如果BatchSize
BatchSize
BatchSize
大的学习速率(见LearnRate
如果正则化
“套索”
TruncationPeriod
TruncationPeriod
1
10
One hundred.
为了提高效率,该软件没有标准化预测数据。将预测数据标准化( 代码要求您将预测器和观察值定位为的行和列X
X = bsxfun (@rdivide bsxfun (@minus X,意味着(X, 2)),性病(0,2));
X
张国伟,林家杰,S. S. Keerthi, S. S. Sundararajan。“大规模线性支持向量机的双坐标下降方法”。
李磊,张涛。“基于截断梯度的稀疏在线学习”。
Nocedal, J.和S. J. Wright。
谢勒夫-施瓦茨,S. Y.辛格和N.斯雷布罗。Pegasos:支持向量机的原始估计次梯度求解器
[5] Wright,S.J.,R. D. Nowak和M. A.T. Tupueiredo。“可分离近似”稀疏重建。“
[6]小,林。“正规化随机学习和在线优化的双平均方法。”
[7]徐,魏。“基于平均随机梯度下降的最优一次大规模学习”。
通过传递线性模型模板和高数组来训练模型时的使用注意事项和限制 使用高阵列时,这些名称值对参数的默认值不同。 当 有关更多信息,请参见fitcecoc
'lambda'
'汽车'
'正规化'
“岭”
“规划求解”
“lbfgs”
“FitBias”
真正的
“详细”
1
“BetaTolerance”
1 e - 3
“GradientTolerance”
1 e - 3
'iterationlimit'
20.
fitcecoc
templateLinear
β
偏见
您单击了与此MATLAB命令对应的链接: 通过在MATLAB命令窗口中输入命令来运行命令。Web浏览器不支持MATLAB命令。金宝app
选择一个网站,在那里获得翻译的内容,并看到当地的活动和优惠。根据您的位置,我们建议您选择:
你也可以从以下列表中选择一个网站: 选择中国网站(以中文或英文)以获得最佳网站性能。其他MathWorks国家网站未优化您所在地的访问。如何获得最佳的网站性能
欧洲