主要内容

当前和遗留选项名称

在R2016a中,许多选项名称发生了变化。optimset仅使用遗留选项名称。optimoptions同时接受遗留名称和当前名称。但是,当您使用遗留的名称-值对设置一个选项时,optimoptions显示当前的等效值。例如,遗产TolX期权相当于电流StepTolerance选择。

选项= optimoptions('fsolve',“TolX”1)的军医
options = fsolve options:当前算法('trust-region-dogleg')使用的选项:(其他可用算法:'levenberg-marquardt', 'trust-region-reflective')StepTolerance: 1.0000 e-04默认属性:算法:'trust-region-dogleg' CheckGradients: 0显示:'final' FiniteDifferenceStepSize: 'sqrt(eps)' FiniteDifferenceType: 'forward' FunctionTolerance: 1.0000 -06 MaxFunctionEvaluations: '100*numberOfVariables' MaxIterations: 400 OptimalityTolerance: 1.0000 -06 OutputFcn: [] PlotFcn: [] specyobjectivegradient: 0 TypicalX: 'ones(numberOfVariables,1)' UseParallel: 0显示当前算法('trust-region-dogleg')未使用的选项

下表提供了相同的信息。第一个表按传统选项名称的字母顺序列出选项,第二个表按当前选项名称的字母顺序列出选项。这些表只包括那些不同或具有不同值的名称,并且仅在遗留和当前值不同时才显示值。对于在全局优化工具箱解决,看R2016a中的选项更改(全局优化工具箱)

按传统顺序排列的选项名称

遗留的名字 现在的名字 遗留值 当前值
AlwaysHonorConstraints HonorBounds “界限”“没有” 真正的
BranchingRule BranchRule
CutGenMaxIter CutMaxIterations
DerivativeCheck CheckGradients “上”“关闭” 真正的
FinDiffRelStep FiniteDifferenceStepSize
FinDiffType FiniteDifferenceType
GoalsExactAchieve EqualityGoalCount
GradConstr SpecifyConstraintGradient “上”“关闭” 真正的
GradObj SpecifyObjectiveGradient “上”“关闭” 真正的
黑森 HessianApproximation 用户提供的“蓄热”“lbfgs”“fin-diff-grads”“上”“关闭”

“蓄热”“lbfgs”有限差分的

忽略时HessianFcnHessianMultiplyFcn非空的是

HessFcn HessianFcn
HessMult HessianMultiplyFcn
HessUpdate(在R2022a中更改fminunc HessianApproximation “蓄热”“lbfgs”{“lbfgs”,正整数}“dfp”“steepdesc” “蓄热”“lbfgs”{“lbfgs”,正整数}
IPPreprocess IntegerPreprocess
雅可比矩阵 SpecifyObjectiveGradient
JacobMult JacobianMultiplyFcn
LPMaxIter LPMaxIterations
MaxFunEvals MaxFunctionEvaluations
麦克斯特 MaxIterations
MaxNumFeasPoints MaxFeasiblePoints
MinAbsMax AbsoluteMaxObjectiveCount
PlotFcns PlotFcn
RelObjThreshold ObjectiveImprovementThreshold
RootLPMaxIter RootLPMaxIterations
ScaleProblem ScaleProblem “obj-and-constr”“没有” 真正的
SubproblemAlgorithm SubproblemAlgorithm “重心”“ldl-factorization” “重心”“分解”
TolCon ConstraintTolerance
TolFun(1)使用 OptimalityTolerance
TolFun(2)使用 FunctionTolerance
TolFunLP LPOptimalityTolerance
TolGapAbs AbsoluteGapTolerance
TolGapRel RelativeGapTolerance
TolInteger IntegerTolerance
TolX StepTolerance

当前顺序中的选项名称

现在的名字 遗留的名字 当前值 遗留值
AbsoluteGapTolerance TolGapAbs
AbsoluteMaxObjectiveCount MinAbsMax
BranchRule BranchingRule
CheckGradients DerivativeCheck 真正的 “上”“关闭”
ConstraintTolerance TolCon
CutMaxIterations CutGenMaxIter
EqualityGoalCount GoalsExactAchieve
FiniteDifferenceStepSize FinDiffRelStep
FiniteDifferenceType FinDiffType
FunctionTolerance TolFun(2)使用
HessianApproximationfmincon 黑森

“蓄热”“lbfgs”有限差分的

忽略时HessianFcnHessianMultiplyFcn非空的是

用户提供的“蓄热”“lbfgs”“fin-diff-grads”“上”“关闭”
HessianApproximationfminunc(在R2022a中更改fminunc HessUpdate

“蓄热”“lbfgs”{“lbfgs”,正整数}

“蓄热”“lbfgs”{“lbfgs”,正整数}“dfp”“steepdesc”
HessianFcn HessFcn
HessianMultiplyFcn HessMult
HonorBounds AlwaysHonorConstraints 真正的 “界限”“没有”
IntegerPreprocess IPPreprocess
IntegerTolerance TolInteger
JacobianMultiplyFcn JacobMult
LPMaxIterations LPMaxIter
LPOptimalityTolerance TolFunLP
MaxFeasiblePoints MaxNumFeasPoints
MaxFunctionEvaluations MaxFunEvals
MaxIterations 麦克斯特
ObjectiveImprovementThreshold RelObjThreshold
OptimalityTolerance TolFun(1)使用
PlotFcn PlotFcns
RelativeGapTolerance TolGapRel
RootLPMaxIterations RootLPMaxIter
ScaleProblem ScaleProblem 真正的 “obj-and-constr”“没有”
SpecifyConstraintGradient GradConstr 真正的 “上”“关闭”
SpecifyObjectiveGradient GradObj雅可比矩阵 真正的 “上”“关闭”
StepTolerance TolX
SubproblemAlgorithm SubproblemAlgorithm “重心”“分解” “重心”“ldl-factorization”

相关的话题