当前和遗留选项名称
许多在R2016a选项名称改变。optimset
只使用遗留选项名称。optimoptions
接受遗产和当前的名字。然而,当您使用遗留名称-值对设置一个选项,optimoptions
显示当前的等效值。例如,遗产TolX
选择是相当于当前StepTolerance
选择。
选择= optimoptions (“fsolve”,“TolX”1)的军医
选项= fsolve选项:选择当前使用的算法(trust-region-dogleg):(其他可用的算法:“levenberg-marquardt”、“trust-region-reflective”)设置属性:StepTolerance: 1.0000 e-04默认属性:算法:“trust-region-dogleg”CheckGradients: 0显示:“最终”FiniteDifferenceStepSize:“sqrt (eps)”FiniteDifferenceType:“向前”FunctionTolerance: 1.0000 e-06 MaxFunctionEvaluations:‘100 * numberOfVariables MaxIterations: 400 OptimalityTolerance: 1.0000 e-06 OutputFcn: [] PlotFcn: [] SpecifyObjectiveGradient: 0 TypicalX:“(numberOfVariables, 1)的”UseParallel: 0显示选项不习惯目前的算法(“trust-region-dogleg”)
下表提供相同的信息。第一个表按字母顺序排列的列表选项遗留选项名称,和第二个表列表选项当前选择的名字按字母顺序排列的。表只包括那些不同的名称或有不同的值,并显示只有当他们在不同的遗产和当前值。的变化全局优化工具箱解决,看选择R2016a变化(全局优化工具箱)。
选择的名字在遗留订单
遗留的名字 | 现在的名字 | 遗留值 | 当前值 |
---|---|---|---|
AlwaysHonorConstraints |
HonorBounds |
“界限” ,“没有” |
真正的 ,假 |
BranchingRule |
BranchRule |
||
CutGenMaxIter |
CutMaxIterations |
||
DerivativeCheck |
CheckGradients |
“上” ,“关闭” |
真正的 ,假 |
FinDiffRelStep |
FiniteDifferenceStepSize |
||
FinDiffType |
FiniteDifferenceType |
||
GoalsExactAchieve |
EqualityGoalCount |
||
GradConstr |
SpecifyConstraintGradient |
“上” ,“关闭” |
真正的 ,假 |
GradObj |
SpecifyObjectiveGradient |
“上” ,“关闭” |
真正的 ,假 |
黑森 |
HessianApproximation |
用户提供的 ,“蓄热” ,“lbfgs” ,“fin-diff-grads” ,“上” ,“关闭” |
忽略时 |
HessFcn |
HessianFcn |
||
HessMult |
HessianMultiplyFcn |
||
HessUpdate (在R2022a改变fminunc ) |
HessianApproximation |
“蓄热” ,“lbfgs” ,{“lbfgs”,正整数} ,“dfp” ,“steepdesc” |
“蓄热” ,“lbfgs” ,{“lbfgs”,正整数} |
IPPreprocess |
IntegerPreprocess |
||
雅可比矩阵 |
SpecifyObjectiveGradient |
||
JacobMult |
JacobianMultiplyFcn |
||
LPMaxIter |
LPMaxIterations |
||
MaxFunEvals |
MaxFunctionEvaluations |
||
麦克斯特 |
MaxIterations |
||
MaxNumFeasPoints |
MaxFeasiblePoints |
||
MinAbsMax |
AbsoluteMaxObjectiveCount |
||
PlotFcns |
PlotFcn |
||
RelObjThreshold |
ObjectiveImprovementThreshold |
||
RootLPMaxIter |
RootLPMaxIterations |
||
ScaleProblem |
ScaleProblem |
“obj-and-constr” ,“没有” |
真正的 ,假 |
SubproblemAlgorithm |
SubproblemAlgorithm |
“重心” ,“ldl-factorization” |
“重心” ,“分解” |
TolCon |
ConstraintTolerance |
||
TolFun (1)使用 |
OptimalityTolerance |
||
TolFun (2)使用 |
FunctionTolerance |
||
TolFunLP |
LPOptimalityTolerance |
||
TolGapAbs |
AbsoluteGapTolerance |
||
TolGapRel |
RelativeGapTolerance |
||
TolInteger |
IntegerTolerance |
||
TolX |
StepTolerance |
选择的名字在当前订单
现在的名字 | 遗留的名字 | 当前值 | 遗留值 |
---|---|---|---|
AbsoluteGapTolerance |
TolGapAbs |
||
AbsoluteMaxObjectiveCount |
MinAbsMax |
||
BranchRule |
BranchingRule |
||
CheckGradients |
DerivativeCheck |
真正的 ,假 |
“上” ,“关闭” |
ConstraintTolerance |
TolCon |
||
CutMaxIterations |
CutGenMaxIter |
||
EqualityGoalCount |
GoalsExactAchieve |
||
FiniteDifferenceStepSize |
FinDiffRelStep |
||
FiniteDifferenceType |
FinDiffType |
||
FunctionTolerance |
TolFun (2)使用 |
||
HessianApproximation 为fmincon |
黑森 |
忽略时 |
用户提供的 ,“蓄热” ,“lbfgs” ,“fin-diff-grads” ,“上” ,“关闭” |
HessianApproximation 为fminunc (在R2022a改变fminunc ) |
HessUpdate |
|
“蓄热” ,“lbfgs” ,{“lbfgs”,正整数} ,“dfp” ,“steepdesc” |
HessianFcn |
HessFcn |
||
HessianMultiplyFcn |
HessMult |
||
HonorBounds |
AlwaysHonorConstraints |
真正的 ,假 |
“界限” ,“没有” |
IntegerPreprocess |
IPPreprocess |
||
IntegerTolerance |
TolInteger |
||
JacobianMultiplyFcn |
JacobMult |
||
LPMaxIterations |
LPMaxIter |
||
LPOptimalityTolerance |
TolFunLP |
||
MaxFeasiblePoints |
MaxNumFeasPoints |
||
MaxFunctionEvaluations |
MaxFunEvals |
||
MaxIterations |
麦克斯特 |
||
ObjectiveImprovementThreshold |
RelObjThreshold |
||
OptimalityTolerance |
TolFun (1)使用 |
||
PlotFcn |
PlotFcns |
||
RelativeGapTolerance |
TolGapRel |
||
RootLPMaxIterations |
RootLPMaxIter |
||
ScaleProblem |
ScaleProblem |
真正的 ,假 |
“obj-and-constr” ,“没有” |
SpecifyConstraintGradient |
GradConstr |
真正的 ,假 |
“上” ,“关闭” |
SpecifyObjectiveGradient |
GradObj 或雅可比矩阵 |
真正的 ,假 |
“上” ,“关闭” |
StepTolerance |
TolX |
||
SubproblemAlgorithm |
SubproblemAlgorithm |
“重心” ,“分解” |
“重心” ,“ldl-factorization” |