主要内容

当前和遗留选项名称

许多在R2016a选项名称改变。optimset只使用遗留选项名称。optimoptions接受遗产和当前的名字。然而,当您使用遗留名称-值对设置一个选项,optimoptions显示当前的等效值。例如,遗产TolX选择是相当于当前StepTolerance选择。

选择= optimoptions (“fsolve”,“TolX”1)的军医
选项= fsolve选项:选择当前使用的算法(trust-region-dogleg):(其他可用的算法:“levenberg-marquardt”、“trust-region-reflective”)设置属性:StepTolerance: 1.0000 e-04默认属性:算法:“trust-region-dogleg”CheckGradients: 0显示:“最终”FiniteDifferenceStepSize:“sqrt (eps)”FiniteDifferenceType:“向前”FunctionTolerance: 1.0000 e-06 MaxFunctionEvaluations:‘100 * numberOfVariables MaxIterations: 400 OptimalityTolerance: 1.0000 e-06 OutputFcn: [] PlotFcn: [] SpecifyObjectiveGradient: 0 TypicalX:“(numberOfVariables, 1)的”UseParallel: 0显示选项不习惯目前的算法(“trust-region-dogleg”)

下表提供相同的信息。第一个表按字母顺序排列的列表选项遗留选项名称,和第二个表列表选项当前选择的名字按字母顺序排列的。表只包括那些不同的名称或有不同的值,并显示只有当他们在不同的遗产和当前值。的变化全局优化工具箱解决,看选择R2016a变化(全局优化工具箱)

选择的名字在遗留订单

遗留的名字 现在的名字 遗留值 当前值
AlwaysHonorConstraints HonorBounds “界限”,“没有” 真正的,
BranchingRule BranchRule
CutGenMaxIter CutMaxIterations
DerivativeCheck CheckGradients “上”,“关闭” 真正的,
FinDiffRelStep FiniteDifferenceStepSize
FinDiffType FiniteDifferenceType
GoalsExactAchieve EqualityGoalCount
GradConstr SpecifyConstraintGradient “上”,“关闭” 真正的,
GradObj SpecifyObjectiveGradient “上”,“关闭” 真正的,
黑森 HessianApproximation 用户提供的,“蓄热”,“lbfgs”,“fin-diff-grads”,“上”,“关闭”

“蓄热”,“lbfgs”,有限差分的

忽略时HessianFcnHessianMultiplyFcn非空的是

HessFcn HessianFcn
HessMult HessianMultiplyFcn
HessUpdate(在R2022a改变fminunc) HessianApproximation “蓄热”,“lbfgs”,{“lbfgs”,正整数},“dfp”,“steepdesc” “蓄热”,“lbfgs”,{“lbfgs”,正整数}
IPPreprocess IntegerPreprocess
雅可比矩阵 SpecifyObjectiveGradient
JacobMult JacobianMultiplyFcn
LPMaxIter LPMaxIterations
MaxFunEvals MaxFunctionEvaluations
麦克斯特 MaxIterations
MaxNumFeasPoints MaxFeasiblePoints
MinAbsMax AbsoluteMaxObjectiveCount
PlotFcns PlotFcn
RelObjThreshold ObjectiveImprovementThreshold
RootLPMaxIter RootLPMaxIterations
ScaleProblem ScaleProblem “obj-and-constr”,“没有” 真正的,
SubproblemAlgorithm SubproblemAlgorithm “重心”,“ldl-factorization” “重心”,“分解”
TolCon ConstraintTolerance
TolFun(1)使用 OptimalityTolerance
TolFun(2)使用 FunctionTolerance
TolFunLP LPOptimalityTolerance
TolGapAbs AbsoluteGapTolerance
TolGapRel RelativeGapTolerance
TolInteger IntegerTolerance
TolX StepTolerance

选择的名字在当前订单

现在的名字 遗留的名字 当前值 遗留值
AbsoluteGapTolerance TolGapAbs
AbsoluteMaxObjectiveCount MinAbsMax
BranchRule BranchingRule
CheckGradients DerivativeCheck 真正的, “上”,“关闭”
ConstraintTolerance TolCon
CutMaxIterations CutGenMaxIter
EqualityGoalCount GoalsExactAchieve
FiniteDifferenceStepSize FinDiffRelStep
FiniteDifferenceType FinDiffType
FunctionTolerance TolFun(2)使用
HessianApproximationfmincon 黑森

“蓄热”,“lbfgs”,有限差分的

忽略时HessianFcnHessianMultiplyFcn非空的是

用户提供的,“蓄热”,“lbfgs”,“fin-diff-grads”,“上”,“关闭”
HessianApproximationfminunc(在R2022a改变fminunc) HessUpdate

“蓄热”,“lbfgs”,{“lbfgs”,正整数}

“蓄热”,“lbfgs”,{“lbfgs”,正整数},“dfp”,“steepdesc”
HessianFcn HessFcn
HessianMultiplyFcn HessMult
HonorBounds AlwaysHonorConstraints 真正的, “界限”,“没有”
IntegerPreprocess IPPreprocess
IntegerTolerance TolInteger
JacobianMultiplyFcn JacobMult
LPMaxIterations LPMaxIter
LPOptimalityTolerance TolFunLP
MaxFeasiblePoints MaxNumFeasPoints
MaxFunctionEvaluations MaxFunEvals
MaxIterations 麦克斯特
ObjectiveImprovementThreshold RelObjThreshold
OptimalityTolerance TolFun(1)使用
PlotFcn PlotFcns
RelativeGapTolerance TolGapRel
RootLPMaxIterations RootLPMaxIter
ScaleProblem ScaleProblem 真正的, “obj-and-constr”,“没有”
SpecifyConstraintGradient GradConstr 真正的, “上”,“关闭”
SpecifyObjectiveGradient GradObj雅可比矩阵 真正的, “上”,“关闭”
StepTolerance TolX
SubproblemAlgorithm SubproblemAlgorithm “重心”,“分解” “重心”,“ldl-factorization”

相关的话题