主要内容

nlarxOptions

选项集nlarx

描述

例子

选择= nlarxOptions的默认选项集<一个href="//www.tatmou.com/help/ident/ref/nlarx.html">nlarx。使用点表示法为您的特定应用程序修改此选项集。任何未修改的选项保留其默认值。

例子

选择= nlarxOptions (<一个href="#namevaluepairarguments" class="intrnllnk">名称,值使用一个或多个指定的选项创建一个选项集名称,值对参数。

例子

全部折叠

opt = nlarxOptions;

为创建默认选项集nlarx,并使用点表示法修改特定选项。

opt = nlarxOptions;

打开估算进度显示。

opt.Display =“上”;

最小化模拟误差的范数。

opt.Focus =“模拟”;

使用子空间高斯-牛顿最小二乘搜索,最多25次迭代。

opt.SearchMethod =“gn”;opt.SearchOptions.MaxIterations = 25;

为创建一个选项集nlarx指定以下选项:

  • 关闭默认小波网络估计的迭代估计。

  • 打开评估进度查看器显示。

opt = nlarxOptions(“IterativeWavenet”“关闭”“显示”“上”);

输入参数

全部折叠

名称-值参数

指定可选的参数对为Name1 = Value1,…,以=家,在那里名字是参数名和吗价值是对应的值。名称-值参数必须出现在其他参数之后,但对的顺序无关紧要。

在R2021a之前,使用逗号分隔每个名称和值,并将其括起来名字在报价。

例子:“焦点”、“模拟”,“SearchMethod”、“研究生”指定使用最陡下降最小二乘搜索最小化模拟误差的范数。

最小化目标,指定为由逗号分隔的对组成“焦点”以及以下其中之一:

  • “预测”-最小化预测误差的范数,其定义为测量输出与模型提前一步预测响应之间的差值。

  • “模拟”-最小化仿真误差的范数,其定义为模型的测量输出与模拟响应之间的差异。

估算进度显示设置,指定为由逗号分隔的对组成“显示”以及以下其中之一:

  • “关闭”—不显示进度和结果信息。

  • “上”—在进度查看器窗口中显示模型结构和估计结果的信息。

标准化估计数据的选项,指定为真正的。如果正常化真正的,则算法使用中指定的方法NormalizationOptions对数据进行规范化。

用于配置规范化的选项集,指定为下表中所示的选项。第一个选项,NormalizationMethod,决定算法使用哪种方法。默认选项为“汽车”。为idnlarx模型,一套“汽车”等于的集合“中心”。除了“medianiqr”,每个具体方法中NormalizationMethod具有关联的配置选项,例如CenterMethodType当您指定“中心”方法。有关这些方法的更多信息,请参阅MATLAB®函数<一个href="//www.tatmou.com/help/matlab/ref/double.normalize.html">正常化

方法或方法选项 价值 描述 默认的
NormalizationMethod “汽车” 自动设置方法。

“汽车”

(相当于“中心”

“中心” 中心数据均值为0。
“zscore” z分数平均值为0,标准差为1。
“规范” 2-norm。
“规模” 按标准偏差比例。
“范围” 将数据范围重新调整为[min,max]。
“medianiqr” 对数据进行中心和缩放,使中位数为0,四分位数为1。

CenterMethodType(适用于'center')

“的意思是” 中心的均值为0。 “的意思是”
“中值” 中间值为0。

ZScoreType(适用于'zscore')

“性病” 居中和缩放为平均值0和标准差1。 “性病”
“稳健” 居中和缩放的中位数为0,中位数绝对偏差为1。

ScaleMethodType(适用于'scale')

“性病” 按标准偏差比例。 “性病”
“疯了” 按绝对偏差中位数进行刻度。
“差” 按四分位数范围进行刻度。
“第一” 按数据的第一个元素进行缩放。

NormValue(适用于“norm”)

正实值 p-norm,p是一个正整数。 2

Range(适用于“Range”)

二元行向量 将数据范围重新缩放为窗体的间隔[b],在那里一个<b [0 1]

多输出模型估计中预测误差的加权,指定为由逗号分隔的对组成“OutputWeight”以及以下其中之一:

  • “噪音”—最优权重自动计算为估计噪声方差的倒数。这个权重最小化依据(E”* E),在那里E为预测误差矩阵。此选项在使用时不可用“lsqnonlin”作为一个“SearchMethod”

  • 一个正半定矩阵,W,其大小等于输出的数量。这个权重最小化跟踪(E”* E * W / N),在那里E预测误差矩阵是和N为数据样本的个数。

迭代<一个href="//www.tatmou.com/help/ident/ref/idwaveletnetwork.html">idWaveletNetwork估计设置,指定为由逗号分隔的对“IterativeWavenet”以及以下其中之一:

  • “汽车”-第一次估计是非迭代的,随后的估计是迭代的。

  • “上”—只执行迭代估计。

  • “关闭”—只执行非迭代估计。

此选项仅在使用<一个href="//www.tatmou.com/help/ident/ref/idwaveletnetwork.html">idWaveletNetwork非线性估计量。

正则化模型参数估计的选项,指定为由逗号分隔的对“正规化”还有一个带有字段的结构:

字段名 描述 默认的
λ 偏差与方差的权衡常数,指定为非负标量。 0—表示不进行正则化。
R 加权矩阵,指定为非负标量的向量或平方正半定矩阵。长度必须等于模型中自由参数的个数,np。使用<一个href="//www.tatmou.com/help/ident/ref/idmodel.nparams.html">nparams命令,以确定模型参数的数量。 1-取值为眼睛(np)
名义上的

在估计过程中,自由参数被拉向的标称值,指定为下列之一:

  • “零”—将参数拉向零。

  • “模型”—将参数拉向初始模型中已有的值。只有在初始化良好时才使用此选项idnlarx具有有限参数值的模型。

“零”

中的字段值正则化,创建默认值nlarxOptions使用点表示法设置和修改字段。任何未修改的字段保留其默认值。

opt = nlarxOptions;opt. regular . lambda = 1.2;opt.Regularization.R = 0.5*eye(np);

正则化是一种指定模型灵活性约束的技术,它减少了估计参数值的不确定性。有关更多信息,请参见<一个href="//www.tatmou.com/help/ident/ug/regularized-estimates-of-model-parameters.html" class="a">模型参数的正则估计。

用于迭代参数估计的数值搜索方法,指定为下表中的值之一。

SearchMethod 描述
“汽车”

自动方法选择

线搜索算法的组合,“gn”“lm”“玲娜”,“研究生”,在每次迭代中依次尝试。采用降低估计成本的第一个下降方向。

“gn”

子空间高斯-牛顿最小二乘搜索。

雅可比矩阵的奇异值小于GnPinvConstant * eps *马克斯(大小(J)) *规范(J)在计算搜索方向时丢弃。J是雅可比矩阵。Hessian矩阵近似为JTJ。如果这个方向没有改善,则函数尝试梯度方向。

“玲娜”

自适应子空间高斯-牛顿搜索。

特征值小于γ*马克斯(sv)的黑森人被忽略,其中sv包含黑森函数的奇异值。在剩余的子空间中计算高斯-牛顿方向。γ具有初始值InitialGnaTolerance(见先进的“SearchOptions”获取更多信息)。该值随因子增加LMStep每次搜索在少于五个等分的范围内找不到较低的准则值。该值随因子而减小2 * LMStep每次搜索成功,没有任何分割。

“lm”

Levenberg-Marquardt最小二乘搜索

每个参数值为-pinv (H + d *我)*毕业生从前一个值。H是黑森人,是单位矩阵,然后研究生是梯度。d是一个增加的数字,直到找到较低的标准值为止。

“研究生”

最陡下降最小二乘搜索。

“lsqnonlin”

的信任区域反射算法<一个href="//www.tatmou.com/help/optim/ug/lsqnonlin.html">lsqnonlin(优化工具箱)

  • 需要优化工具箱™软件。

“fmincon”

约束非线性求解。

的顺序二次规划(SQP)和信任区域反射算法<一个href="//www.tatmou.com/help/optim/ug/fmincon.html">fmincon(优化工具箱)解算器。的内部点和活动集算法fmincon解算器。中指定算法SearchOptions。算法选择。的fmincon在以下情况下,算法可能会改善估计结果:

  • 当对模型参数施加边界时的约束最小化问题。

  • 其中损失函数是参数的非线性或非光滑函数的模型结构。

  • 多输出模型估计。行列式<一个href="//www.tatmou.com/help/ident/ug/model-quality-metrics.html" class="a">损失函数对于多输出模型估计,默认情况下是最小的。fmincon算法能够直接最小化这种损失函数。其他搜索方法,如“lm”“gn”通过交替估计噪声方差和减少给定噪声方差值的损失值来最小化行列式损失函数。因此,fmincon算法对多输出模型的估计具有较高的效率和精度。

为搜索算法设置的选项,指定为由“SearchOptions”和一个搜索选项集,其中的字段依赖于的值SearchMethod

SearchOptions结构时SearchMethod指定为“gn”“玲娜”“lm”“研究生”,或“汽车”

字段名 描述 默认的
宽容

损失函数的当前值与下一次迭代后预期改进之间的最小百分比差,用正标量表示。当期望改进的百分比小于宽容,迭代停止。下一次迭代时预期损失函数改进的估计是基于对当前参数值计算的高斯-牛顿向量。

1 e-5
MaxIterations

损失函数最小化过程中的最大迭代次数,指定为正整数。迭代停止于MaxIterations达到或满足另一个停止标准,例如宽容

设置MaxIterations = 0返回启动过程的结果。

使用sys.Report.Termination.Iterations要获得估算期间的实际迭代次数,其中sys是一个idtf模型。

20.
先进的

高级搜索设置,指定为具有以下字段的结构:

字段名 描述 默认的
GnPinvConstant

雅可比矩阵奇异值阈值,指定为正标量。雅可比矩阵的奇异值小于GnPinvConstant *马克斯(大小(J) *规范(J) * eps)在计算搜索方向时丢弃。适用时<一个href="#buoz0jk_sep_shared-SearchMethod" class="intrnllnk">SearchMethod“gn”

10000
InitialGnaTolerance

的初始值γ,指定为正标量。适用时SearchMethod“玲娜”

0.0001
LMStartValue

搜索方向长度的起始值d在Levenberg-Marquardt方法中,指定为正标量。适用时SearchMethod“lm”

0.001
LMStep

Levenberg-Marquardt步长,指定为正整数。搜索方向长度的下一个值d在Levenberg-Marquardt方法中是LMStep乘以前一个。适用时SearchMethod“lm”

2
MaxBisections

沿搜索方向进行线搜索所使用的最大等分数,指定为正整数。

25
MaxFunctionEvaluations

对模型文件的最大调用次数,指定为正整数。如果对模型文件的调用次数超过这个值,迭代就会停止。

MinParameterChange

每次迭代允许的最小参数更新,指定为非负标量。

0
RelativeImprovement

相对改进阈值,指定为非负标量。如果标准函数的相对改进小于这个值,迭代就会停止。

0
StepReduction

步骤缩减因子,指定为大于1的正标量。建议的参数更新按因子减少StepReduction每次尝试之后。这种减少一直持续到MaxBisections完成尝试或获得较低的准则函数值。

StepReduction不适用于SearchMethod“lm”(Levenberg-Marquardt方法)。

2

SearchOptions结构时SearchMethod指定为“lsqnonlin”

字段名 描述 默认的
FunctionTolerance

损失函数上的终止容差,软件将其最小化以确定估计的参数值,指定为正标量。

的价值FunctionTolerance和…一样吗opt.SearchOptions.Advanced.TolFun

1 e-5
StepTolerance

估计参数值的终止容差,指定为正标量。

的价值StepTolerance和…一样吗opt.SearchOptions.Advanced.TolX

1 e-6
MaxIterations

损失函数最小化过程中的最大迭代次数,指定为正整数。迭代停止于MaxIterations达到或满足另一个停止标准,例如FunctionTolerance

的价值MaxIterations和…一样吗opt.SearchOptions.Advanced.MaxIter

20.
先进的

高级搜索设置,指定为的选项集lsqnonlin

有关详细信息,请参阅中的优化选项表<一个href="//www.tatmou.com/help/optim/ug/optimization-options-reference.html" class="a">优化选项(优化工具箱)

使用optimset(“lsqnonlin”)创建默认选项集。

SearchOptions结构时SearchMethod指定为“fmincon”

字段名 描述 默认的
算法

fmincon优化算法,指定为以下之一:

  • “sqp”—顺序二次规划算法。该算法在所有迭代中都满足边界,并且可以从结果。它不是一个大规模的算法。有关更多信息,请参见<一个href="//www.tatmou.com/help/optim/ug/choosing-the-algorithm.html" class="a">大规模vs.中等规模算法(优化工具箱)

  • “trust-region-reflective”—基于内反射牛顿法的子空间信任域方法。这是一个大规模的算法。

  • “内点”-大规模算法,需要优化工具箱软件。该算法在所有迭代中都满足边界,并且可以从结果。

  • “激活集”-需要优化工具箱软件。该算法可以采取大的步骤,这增加了速度。它不是一个大规模的算法。

有关算法的更多信息,请参见<一个href="//www.tatmou.com/help/optim/ug/constrained-nonlinear-optimization-algorithms.html" class="a">约束非线性优化算法(优化工具箱)和<一个href="//www.tatmou.com/help/optim/ug/choosing-the-algorithm.html" class="a">选择算法(优化工具箱)

“sqp”
FunctionTolerance

损失函数上的终止容差,软件将其最小化以确定估计的参数值,指定为正标量。

1 e-6
StepTolerance

估计参数值的终止容差,指定为正标量。

1 e-6
MaxIterations

损失函数最小化过程中的最大迭代次数,指定为正整数。迭代停止于MaxIterations达到或满足另一个停止标准,例如FunctionTolerance

One hundred.

中的字段值SearchOptions,创建默认值nlarxOptions使用点表示法设置和修改字段。任何未修改的字段保留其默认值。

opt = nlarxOptions;opt.SearchOptions.MaxIter = 15;opt. searchoptions . advanced . improvement = 0.5;

其他高级选项,指定为由“高级”还有一个带有字段的结构:

字段名 描述 默认的
ErrorThreshold 何时将大误差的权重从二次型调整为线性型的阈值,指定为非负标量。错误大于ErrorThreshold乘以估计的标准差在损失函数中有一个线性权值。标准偏差被稳健地估计为绝对偏差与预测误差中位数的中位数除以0.7。如果估计数据包含异常值,请尝试设置ErrorThreshold1.6 0-导致纯二次损失函数。
最大尺寸 当输入-输出数据被分割成段时,段中的最大元素数,指定为正整数。 250000

中的字段值先进的,创建默认值nlarxOptions使用点表示法设置和修改字段。任何未修改的字段保留其默认值。

opt = nlarxOptions;opt.Advanced.ErrorThreshold = 1.2;

输出参数

全部折叠

选项集nlarx命令,返回为nlarxOptions选项设置。

版本历史

在R2015a中引入

全部展开

另请参阅