findopOptions

设置选项,从规范中查找操作点

描述

例子

选项= findopOptions返回默认的操作点搜索选项。

选项= findopOptions (名称,值)返回一个选项集,其中包含一个或多个指定的附加选项名称,值对参数。属性指定的选项findop命令。

例子

全部折叠

为操作点搜索创建一个选项集,该选项集将优化器类型设置为gradient descent并抑制显示输出findop

选择= findopOptions (“OptimizerType”,“graddescent”,“DisplayReport”,“关闭”);

或者,使用点符号设置的值选项

选择= findopOptions;选项。OptimizerType =“graddescent”;选项。DisplayReport =“关闭”;

输入参数

全部折叠

名称-值对的观点

指定可选的逗号分隔的对名称,值参数。的名字参数名和价值是对应的值。的名字必须出现在引号内。可以按任意顺序指定多个名称和值对参数Name1, Value1,…,的家

例子:“DisplayReport”,“关闭”禁止将操作点搜索报告显示到命令窗口。

优化器类型由优化算法使用,指定为逗号分隔的对组成“OptimizerType”及下列其中一项:

  • “graddescent-elim”-强制执行一个等式约束,使状态的时间导数为零(dx / dt = 0,x (k + 1) = x (k))和输出信号,使其等于其指定的已知值。优化器修复状态,x输入,u,即标记为已知的在操作点规范中,并优化其余变量。

  • “graddescent”-强制执行一个等式约束,使状态的时间导数为零(dx / dt = 0,x (k + 1) = x (k))和输出信号等于其指定的已知值。优化器还可以最小化状态之间的错误,x输入,u,以及它们各自的已知值。如果没有任何输入或状态标记为已知的,findop试图将初始猜测之间的偏差最小化xu,以及它们的修剪值。

  • “graddescent-proj”-除了“graddescent”,在每个功能评估时,加强模型初始条件的一致性。要指定约束是硬约束还是软约束,请使用ConstraintType选择。这种优化方法不支持解析雅可比矩阵。金宝app

  • “lsqnonlin”-修复各州,x输入,u,标记为已知的并对其余变量进行优化。该算法试图最小化状态时间导数的误差(dx / dt = 0,x (k + 1) = x (k))和输出与其指定的已知值之间的错误。

  • “lsqnonlin-proj”-除了“lsqnonlin”,在每个功能评估时,加强模型初始条件的一致性。这种优化方法不支持解析雅可比矩阵。金宝app

  • “单纯”-使用相同的成本函数lsqnonlin与直接搜索优化例程中找到fminsearch

有关这些优化算法的更多信息,请参见fmincon,lsqnonlin,fminsearch在优化工具箱™文档中。

优化算法的选项,指定为逗号分隔对组成“OptimizationOptions”和一个使用optimset函数。

标志,指示是否显示操作点汇总报告,指定为逗号分隔的对组成“DisplayReport”及下列其中一项:

  • “上”-在MATLAB中显示工作点汇总报告®运行时的命令窗口findop

  • “关闭”-禁止显示摘要报告。

  • “通路”-显示优化过程的迭代更新。

标志,指示在改变用于调整的参数值时是否重新编译模型,指定为由逗号分隔的对组成“AreParamsTunable”及下列其中一项:

  • 真正的-当所有变化的参数都是可调的时,不要重新编译模型。如果任何变化的参数不可调优,则为每个参数网格点重新编译模型,并发出警告消息。

  • -重新编译每个参数网格点的模型。当您更改不可调参数的值时,请使用此选项。

约束类型“graddescent-proj”优化器算法,指定为逗号分隔对组成“ConstraintType”和具有以下字段的结构:

  • dx-状态导数约束的类型

  • x-类型为状态值的约束

  • y-输出值的约束类型

将每个约束指定为下列约束之一:

  • “硬”-强制约束为零。

  • “软”-尽量减少限制。

所有约束类型为“硬”默认情况下。

输出参数

全部折叠

修整选项,返回为afindopOptions选项设置。

兼容性的考虑

全部展开

行为改变在R2017b

另请参阅

介绍了R2013b