Main Content

ソルバーが成功している可能性がある場合

最終点が初期点と等しい

1 次の最適性の尺度が 0 に近いため、初期点が局所的最小値または解になるようです。ソルバーが初期点を改善しなかったので、この結果では満足できないかもしれません。

初期点が本当に局所的最小値であることに確信がない場合は、以下を試します。

  1. 異なる点から開始する方法については、「初期点の変更」を参照してください。

  2. 目的関数と制約が正しく定義されていることを確認します (たとえば、いくつかの点で正しい値を返すかどうか)。目的関数と制約関数の確認を参照してください。実行不可能な点で関数がエラーを起こさないことを確認します。反復は制約に違反する可能性ありを参照してください。

  3. OptimalityToleranceConstraintToleranceStepToleranceなどの許容誤差を変更する方法については、「適切な許容誤差を使用」を参照してください。

  4. 問題をスケーリングして、各座標にほぼ同じ効果をもたせる方法については、「問題のリスケーリング」を参照してください。

  5. 勾配とヘッセ情報を与える方法については、「解析勾配またはヤコビアンの提供」および「ヘッシアンの提供」を参照してください。

局所的最小値の可能性

ソルバーが局所的最小値に到達した可能性がありますが、1 次の最適性の尺度がOptimalityTolerance許容誤差より小さくないため、確実ではありません (1 次の最適性の尺度の詳細は、1 次の最適性の尺度を参照)。報告された解が信頼できるかどうかを確かめるには、以下の提案を検討してください。

1.滑らかでない関数
2.最終点で開始して再実行
3.他のアルゴリズムを試す
4.許容誤差の変更
5.問題のリスケーリング
6.近傍点の確認
7.有限差分オプションの変更
8.解析勾配またはヤコビアンの提供
9.ヘッシアンの提供

1.滑らかでない関数

滑らかでない関数を最小化しようとしたり、滑らかでない制約をもつ場合、「局所的最小値の可能性」程度の終了メッセージしか得られないことがあります。これは、1 次の最適性条件が滑らかでない点に適用されないためです。

解が適正であることを納得するために、「近傍点の確認」を試します。

2.最終点で開始して再実行

最終点で最適化を再開すると、より良い 1 次の最適性の尺度をもつ解になる可能性があります。より良い (より低い) 1 次の最適性の尺度により、答えを信頼してもよい理由が増えます。

たとえば、例 (Optimization Toolbox ソルバーによる記号数学の使用) に含まれる次の最小化問題を考えてみましょう。

options = optimoptions('fminunc','Algorithm','quasi-newton'); funh = @(x)log(1 + (x(1) - 4/3)^2 + 3*(x(2) - (x(1)^3 - x(1)))^2); [xfinal fval exitflag] = fminunc(funh,[-1;2],options) Local minimum possible. fminunc stopped because it cannot decrease the objective function along the current search direction. xfinal = 1.3333 1.0370 fval = 8.5265e-014 exitflag = 5

5の終了フラグ値は、1 次の最適性の尺度が関数許容誤差より上であることを示します。最小化をxfinalから開始して再度実行します。

[xfinal2 fval2 exitflag2] = fminunc(funh,xfinal,options) Local minimum found. Optimization completed because the size of the gradient is less than the default value of the function tolerance. xfinal2 = 1.3333 1.0370 fval2 = 6.5281e-014 exitflag2 = 1

局所的最小値は「可能」ではなく「見つかりました」であり、終了フラグは5ではなく1です。2 つの解は事実上同一です。1 次の最適性の尺度が十分に低かったため、2 番目の実行はより満足のいく終了メッセージをもちます:3.9674e-006の代わりに7.5996e-007

3.他のアルゴリズムを試す

ソルバーが多くあるため、アルゴリズムを選択できます。さまざまなアルゴリズムにより、異なる停止条件を使用することができます。

たとえば、「最終点での開始を再実行」すると、1 回目の実行から、最終フラグ5が返されます。この実行ではquasi-newtonアルゴリズムを使用します。

信頼領域法アルゴリズムにはユーザー指定の勾配が必要です。betopt.mは目的関数と勾配の計算を含んでいます。

function [f gradf] = betopt(x) g = 1 + (x(1)-4/3)^2 + 3*(x(2) - (x(1)^3-x(1)))^2; f = log(g); gradf(1) = 2*(x(1)-4/3) + 6*(x(2) - (x(1)^3-x(1)))*(1-3*x(1)^2); gradf(1) = gradf(1)/g; gradf(2) = 6*(x(2) - (x(1)^3 -x(1)))/g;

trust-regionアルゴリズムを使用して最適化を実行すると、結果として異なる終了フラグになります。

options = optimoptions('fminunc','Algorithm','trust-region','SpecifyObjectiveGradient',true); [xfinal3 fval3 exitflag3] = fminunc(@betopt,[-1;2],options) Local minimum possible. fminunc stopped because the final change in function value relative to its initial value is less than the default value of the function tolerance. xfinal3 = 1.3333 1.0370 fval3 = 7.6659e-012 exitflag3 = 3

終了条件は、最良ではありませんがquasi-newton条件よりは良い条件です。最終点からアルゴリズムを再度実行すると、極めて小さい 1 次の最適性の尺度をもつより良い点が生成されます。

[xfinal4 fval4 eflag4 output4] = fminunc(@betopt,xfinal3,options) Local minimum found. Optimization completed because the size of the gradient is less than the default value of the function tolerance. xfinal4 = 1.3333 1.0370 fval4 = 0 eflag4 = 1 output4 = iterations: 1 funcCount: 2 cgiterations: 1 firstorderopt: 7.5497e-11 algorithm: 'trust-region' message: 'Local minimum found. Optimization completed because the size o...' constrviolation: []

4.許容誤差の変更

許容誤差を厳しくするか緩めると、より満足できる結果をもたらすことがあります。たとえば、「他のアルゴリズム」節でOptimalityToleranceのより小さな値を選択すると、以下のようになります。

options = optimoptions('fminunc','Algorithm','trust-region',... 'OptimalityTolerance',1e-8,'SpecifyObjectiveGradient',true); % default=1e-6 [xfinal3 fval3 eflag3 output3] = fminunc(@betopt,[-1;2],options) Local minimum found. Optimization completed because the size of the gradient is less than the selected value of the function tolerance. xfinal3 = 1.3333 1.0370 fval3 = 0 eflag3 = 1 output3 = iterations: 15 funcCount: 16 cgiterations: 12 firstorderopt: 7.5497e-11 algorithm: 'trust-region' message: 'Local minimum found. Optimization completed because the size...' constrviolation: []

fminuncは、以前より反復を 1 回多くし、より良い解に到達します。

5.問題のリスケーリング

スケーリングとセンタリングを行うことにより、各座標が目的関数と制約関数へほぼ同じ効果を与えるようにします。例については、「問題のセンタリングとスケーリング」を参照してください。

6.近傍点の確認

目的関数と制約が最終点の近くの点に存在している場合は、それらを評価します。最終点が局所的最小値である場合は、近傍実行可能点はより大きい目的関数値をもちます。例については、「近傍点の確認」を参照してください。

Global Optimization Toolboxライセンスをお持ちの場合は、最終点からpatternsearch(Global Optimization Toolbox)ソルバーを実行してみてください。patternsearchは近傍点を検査し,すべてのタイプの制約を受け入れます。

7.有限差分オプションの変更

中心有限差分法は評価操作よりも時間がかかりますが、より正確です。問題が高い曲率をもつ可能性がある場合は、中心差分を使用します。

コマンド ラインで中心差分を選択するには、optimoptionsを使用して、'FiniteDifferenceType'を既定の'forward'ではなく'central'に設定します。

8.解析勾配またはヤコビアンの提供

勾配またはヤコビアンが提供されない場合、ソルバーは有限差分法によって勾配とヤコビアンを推定します。つまり、これらの導関数を提供することにより、計算時間の節約や精度の向上が期待できます。問題ベースのアプローチは、自動的に勾配を提供できます。Optimization Toolbox の自動微分を参照してください。

制約問題の場合は、勾配を与えることで別の利点があります。ソルバーは、xそれ自体は実行可能だが、xの周囲の有限差分は常に実行不可能な点へ導くような点xに到達することがあります。この場合、ソルバーは失敗するか途中で停止する可能性があります。勾配を与えることで、ソルバーは続行できます。

目的関数と非線形制約関数を定義するファイル内に、勾配またはヤコビアンも与えます。構文についての詳細は、スカラー目的関数の記述ベクトルと行列の目的関数の記述および非線形制約を参照してください。

勾配またはヤコビアンの有効性を確認で説明されているように、勾配またはヤコビ関数が正しいことを確認するにはCheckGradientsオプションを使用します。

Symbolic Math Toolbox™ のライセンスをお持ちの場合は、プログラミングによって勾配とヘッシアンを計算することができます。例については、Symbolic Math Toolbox を使用した勾配とヘッシアンの計算を参照してください。

勾配とヤコビアンを使用している例は、勾配およびヘッシアンを使った最小化勾配付き非線形制約Symbolic Math Toolbox を使用した勾配とヘッシアンの計算ヤコビアンを使用した場合と使用しない場合の非線形系の解法、およびヤコビアンを使用した非線形方程式の大規模スパース系を参照してください。問題ベースのアプローチの自動微分については、問題ベースの最適化における自動微分の効果を参照してください。

9.ヘッシアンの提供

ヘッシアンを与えると、ソルバーはより正確かつより少ない反復で作動します。

以下のソルバーとアルゴリズムはヘッシアンを受け入れます。

Symbolic Math Toolbox のライセンスをお持ちの場合は、プログラミングによって勾配とヘッシアンを計算することができます。例については、Symbolic Math Toolbox を使用した勾配とヘッシアンの計算を参照してください。問題ベースのアプローチでヘッシアンを提供するには、問題ベースのワークフローへの導関数の供給を参照してください。

Symbolic Math Toolbox を使用した勾配とヘッシアンの計算の例は、fminconが、ヘッシアンなしでは 77 回反復し、ヘッシアンを使用すると 19 回しか反復しないことを示します。