主要内容

回帰モデルのオプションの選択

回帰モデルのタ@ @プの選択

回帰学習器アプリを使用すると,選択した各種のモデルにデ,タを自動的に学習をさせることができます。自動化された学習を使用したモデル タイプの選択を簡単に試してから、有望なモデルを対話的に探します。まず、次のオプションを試します。

回归学习者选项卡上的模型图库中的所有快速训练按钮

最初に使用する回帰モデルのボタン 説明
すべてのク@ @ック学習
はじめに[すべてのク电子邮箱ック学習]ボタンを試します。通常は学習が高速であるすべてのモデルタ@ @プに学習をさせます。
すべて
使用可能なすべての最適化不可能なモデルタ电子邮箱プに学習させるには,[すべて]ボタンを使用します。前に学習させたモデルであるかどうかに関係なく,すべてのタ。時間がかかる可能性があります。

モデルへの自動学習のさせ方の詳細は,自動で回帰モデルに学習をさせるを参照してください。

一度に1つずつモデルを調べる場合,または必要なモデルのタイプが既にわかっている場合,個々のモデルを選択するか,同じタイプのグループに学習をさせることができます。利用可能なすべての回帰モデルのオプションを表示するには,[回帰学習器]タブで[モデル]セクションにある矢印をクリックして回帰モデルのリストを展開します。ギャラリ,の最適化不可能なモデル オプションは、種々の設定が事前に行われている開始点であり、さまざまな回帰問題に適しています。最適化可能なモデル オプションを使用してモデル ハイパーパラメーターを自動的に調整する場合は、回帰学習器アプリのハパパラメタの最適化を参照してください。

問題に最適なモデルタイプの選択に関する情報については,各種の回帰モデルタイプの一般的な特徴が示されている表を参照してください。速度,柔軟性および解釈可能性に関するトレ,ドオフに基づいて判断してください。最適なモデルのタ@ @プは,デ@ @タによって異なります。

ヒント

過適合を回避するには,十分な精度が得られる,柔軟性が低いモデルを探してください。たとえば,高速で解釈が容易な回帰木などの単純なモデルを探します。応答を予測するにはモデルの精度が不十分である場合は,柔軟性が高い他のモデル(アンサンブルなど)を選択します。柔軟性の制御にいては,各モデルタプの詳細を参照してください。

回帰モデルのタ@ @プの特徴

回帰モデルのタ@ @プ 解釈可能性
線形回帰モデル
容易
回帰木
容易
サポ,トベクタ,マシン
線形支持向量机では容易。他のカ,ネルでは困難。
ガウス過程回帰モデル
困難
木のアンサンブル
困難
ニュ,ラルネットワ,ク
困難

回帰学習器で各モデルの説明を表示するには,すべての事前設定済みモデルのリストで詳細表示に切り替えます。

模型库中模型的详细信息视图

ヒント

[モデル]ギャラリ,の最適化不可能なモデルは,さまざまな設定の事前設定済み開始点となります。モデルのタイプ(回帰木など)を選択した後で,最適化不可能なすべての事前設定による学習を試して,使用しているデータに最適なモデルが生成されるのはどの設定であるかを調べてください。

ワクフロの指示にいては,回帰学習器アプリにより回帰モデルに学習をさせるを参照してください。

カテゴリカル予測子のサポ,ト

回帰学習器では,すべてのモデルタ。

ヒント

カテゴリカル予測子に多くの一意な値がある場合,交互作用項または2次項がある線形モデルとステップワイズ線形モデルに学習をさせると,メモリが大量に使用される可能性があります。モデルが学習に失敗した場合は,このようなカテゴリカル予測子の削除を試してください。

線形回帰モデル

線形回帰モデルは,線形の予測子がモデルパラメーターに含まれており,解釈が容易であり,予測が高速です。これらの特徴のため,線形回帰モデルははじめに試すモデルとして一般的です。しかし,このモデルは形式が非常に制約されているので,多くの場合に予測精度が低くなります。線形回帰モデルを当てはめた後で、より柔軟なモデル (回帰木など) を作成してみて結果を比較してください。

ヒント

[モデル]ギャラリ,の[すべての線形]をクリックして線形回帰の各オプションを試し,使用しているデータに最適なモデルが生成されるのはどの設定であるかを調べます。最適なモデルを[モデル]ペesc escンで選択し,特徴選択の使用と一部の詳細オプションの変更によりモデルの改善を試します。

回帰モデルのタ@ @プ 解釈可能性 モデルの柔軟性
線形
容易 非常に低い
交互作用線形
容易
ロバスト線形
容易 非常に低い。外れ値の影響は少なくなりますが,学習は遅くなる可能性があります。
ステップワ@ @ズ線形
容易

ヒント

ワクフロの例にいては,回帰学習器アプリを使用して回帰木に学習をさせるを参照してください。

線形回帰モデルのハパパラメタのオプション

回帰学習器は,線形モデル,交互作用線形モデルおよびロバスト線形モデルの学習に関数fitlmを使用します。ステップワ@ @ズ線形モデルの学習には関数stepwiselmを使用します。

線形モデル,交互作用線形モデルおよびロバスト線形モデルの場合,以下のオプションを設定できます。

  • 線形モデルで使用する項を指定します。以下から選択できます。

    • 線形。予測子の定数項と線形項

    • 交互作用。定数項,線形項,および予測子間の交互作用項

    • 純粋な2次。定数項,線形項,および各予測子内の純粋な2次項

    • 2 次。定数項,線形項および(交互作用を含む)2次項

  • ロバストオプション

    ロバスト目的関数を使用してモデルに対する外れ値の影響を少なくするかどうかを指定します。このオプションを指定した場合、近似メソッドは外れ値である可能性が高いデータ点に低い重みを自動的に割り当てます。

ステップワイズ線形回帰は初期モデルで始まり,徐々に大きさが変わるモデルの説明能力に基づいて,モデルに対して項を系統的に追加および削除します。ステップワesc escズ線形モデルの場合,以下のオプションを設定できます。

  • 初期項

    ステップワ@ @ズ法の初期モデルに含める項を指定します。[定数][線形][交互作用][純粋な2次]および[2 次]から選択できます。

  • 項の上限

    ステップワ@ @ズ法でモデルに追加できる項の最高次数を指定します。[線形][交互作用][純粋な2次]および[2 次]から選択できます。

  • 最大ステップ数

    ステップワesc escズ法で試行できる,異なる線形モデルの最大数を指定します。学習を高速化するには,ステップの最大数の削減を試します。ステップの最大数を小さくすると,適切なモデルを見ける可能性が低くなります。

ヒント

カテゴリカル予測子に多くの一意な値がある場合,交互作用項または2次項がある線形モデルとステップワイズ線形モデルに学習をさせると,メモリが大量に使用される可能性があります。モデルが学習に失敗した場合は,このようなカテゴリカル予測子の削除を試してください。

回帰木

回帰木は,当てはめと予測が高速で,メモリ使用量が少なく,解釈が容易です過適合を避けるには,少ない数の大きい葉がある小さい木の成長を試します。葉のサ@ @ズは[最小リフサズ]の設定で制御します。

ヒント

[モデル]ギャラリ,の[すべての木]をクリックして最適化不可能な回帰木の各オプションを試し,使用しているデータに最適なモデルが生成されるのはどの設定であるかを調べます。最適なモデルを[モデル]ペesc escンで選択し,特徴選択の使用と一部の詳細オプションの変更によりモデルの改善を試します。

回帰モデルのタ@ @プ 解釈可能性 モデルの柔軟性
複雑な木
容易
非常に柔軟な応答関数向けの,多くの小さい葉(最小リフサズは4)
中程度の木
容易
12)
粗い木
容易
粗い応答関数向けの,少数の大きい葉(最小リフサズは36)

回帰木の応答を予測するには,ル,ト(開始)ノ,ドから葉ノ,ドの方向に木をたどります。葉ノ,ドには応答の値が含まれています。

统计和机器学习工具箱™のリは二分木です。予測の各ステップでは,1の予測子変数の値がチェックされます。たとえば,次の図は単純な回帰木を示しています。

具有五个叶节点的简单回归树的图表

この木は,2の予測子x1およびx2に基づいて応答を予測します。予測は最上位のノ,ドから始まります。各ノ,ドでは,予測子の値をチェックして,どの分岐に進むかを決定します。分岐が葉ノ,ドに達した場合,そのノ,ドに対応する値が応答として設定されます。

モデルをアプリからエクスポ,トして次のように入力すると,回帰木モデルを可視化できます。

视图(trainedModel。RegressionTree,“模式”“图”

ヒント

ワクフロの例にいては,回帰学習器アプリを使用して回帰木に学習をさせるを参照してください。

回帰木モデルのハパパラメタのオプション

回帰学習器アプリは,回帰木の学習に関数fitrtreeを使用します。次のオプションを設定できます。

  • 最小リフサズ

    各葉ノ,ドの応答の計算に使用する学習標本の最小数を指定します。回帰木を成長させるときは,単純さと予測力を考慮してください。葉の最小サ电子邮箱ズを変更するには,ボタンをクリックするか,[最小リフサズ]ボックスに正の整数値を入力します。

    • 通常,多くの小さい葉がある複雑な木は,学習デ,タに対して非常に正確です。しかし,独立した検定セットに対しては同等の精度にならない場合があります。葉が非常に多い木は過適合になる傾向があり,多くの場合に検証精度が学習(再代入)精度よりはるかに低くなります。

    • 対照的に,少数の大きい葉がある粗い木では学習精度が高くなりません。しかし,代表的な検定セットの精度に学習精度が近づく可能性があるという点で,粗い木の方がロバストになる可能性があります。

    ヒント

    より柔軟なモデルを作成するには,[最小リフサズ]を小さくします。

  • 代理決定分岐—欠損デタがある場合のみ。

    決定分岐に代理を使用するよう指定します。デ,タに欠損値が含まれている場合,代理分岐を使用すると予測の精度が向上します。

    [代理決定分岐][オン]に設定した場合,回帰木では最大10個の代理分岐が各枝ノ,ドで探索されます。代理分岐の数を変更するには,ボタンをクリックするか,[各ノ,ドの最大代理]ボックスに正の整数値を入力します。

    [代理決定分岐][すべて検索]に設定した場合,回帰木ではすべての代理分岐が各枝ノ,ドで探索されます。[すべて検索]に設定すると,時間とメモリが大量に使用される可能性があります。

あるいは,ハイパーパラメーターの最適化を使用して,いくつかのモデルオプションを自動的に選択することもできます。回帰学習器アプリのハパパラメタの最適化を参照してください。

サポ,トベクタ,マシン

回帰学習器で回帰サポ,トベクタ,マシン(svm)に学習をさせることができます。線形SVMは解釈が容易ですが,予測精度が低くなる可能性があります。非線形SVMは解釈が困難ですが,精度は高くなる可能性があります。

ヒント

[モデル]ギャラリ,の[すべてのsvm]をクリックして最適化不可能なSVMの各オプションを試し,使用しているデータに最適なモデルが生成されるのはどの設定であるかを調べます。最適なモデルを[モデル]ペesc escンで選択し,特徴選択の使用と一部の詳細オプションの変更によりモデルの改善を試します。

回帰モデルのタ@ @プ 解釈可能性 モデルの柔軟性
線形支持向量机
容易
2次SVM
困難
3次SVM
困難
細かいガウス支持向量机
困難
応答関数の急激な変動が許容されます。カ,ネルスケ,ルは倍根号(P) / 4に設定されます。Pは予測子の個数です。
中程度のガウス支持向量机
困難
応答関数の柔軟性が低くなります。カ,ネルスケ,ルはsqrt (P)に設定されます。
粗いガウス支持向量机
困難
応答関数の柔軟性がなくなります。カ,ネルスケ,ルはsqrt (P) * 4に設定されます。

统计和机器学习工具箱では,線形のイプシロン不感応SVM回帰を実装しています。このSVMでは,何らかの固定数εより小さい予測誤差を無視します。“サポ,トベクタ,”は,誤差がεより大きいデ,タ点です。支持向量机で新しい値の予測に使用する関数は、サポート ベクターのみに依存します。SVM 回帰の詳細については、サポトベクタマシン回帰にいてを参照してください。

ヒント

ワクフロの例にいては,回帰学習器アプリを使用して回帰木に学習をさせるを参照してください。

支持向量机モデルのハ

回帰学習器は,svm回帰モデルの学習に関数fitrsvmを使用します。

次のオプションをアプリで設定できます。

  • カ,ネル関数

    カ,ネル関数は,svmに学習をさせる前にデ,タに適用する非線形変換を決定します。以下から選択できます。

    • [ガウス]または放射基底関数(rbf)カ,ネル

    • [線形]カ,ネル(解釈が最も容易)

    • [2 次]カネル

    • [3 次]カネル

  • ボックス制約モ,ド

    ボックス制約は,残差が大きい観測値に対するペナルティを制御します。ボックス制約が大きくなると,モデルの柔軟性が高くなります。値が小さいとモデルの柔軟性が低くなり,過適合の影響が小さくなります。

    [ボックス制約モ,ド][自動]に設定した場合,ヒュ,リスティック手法を使用してボックス制約が選択されます。

    モデルを微調整するには,ボックス制約を手動で指定します。[ボックス制約モ,ド][手動]に設定して値を指定します。値を変更するには,矢印をクリックするか,[手動のボックス制約]ボックスに正のスカラ,値を入力します。適切な値が自動的に事前選択されます。この値を少しだけ変化させて,モデルが改善されるかどうかを調べます。

    ヒント

    より柔軟なモデルを作成するには,ボックス制約の値を大きくします。

  • プシロンモ,ド

    プシロン(ε)の値より小さい予測誤差は無視され,ゼロに等しいものとして扱われます。@ @プシロンの値が小さくなると,@ @モデルの柔軟性が高くなります。

    [huawei @ huawei @ huawei @ huawei @ huawei @ huawei][自動]に設定した場合,ヒュ,リスティック手法を使用してカ,ネルスケ,ルが選択されます。

    モデルを微調整するには,电子邮件プシロンの値を手動で指定します。[huawei @ huawei @ huawei @ huawei @ huawei @ huawei][手動]に設定して値を指定します。値を変更するには,矢印をクリックするか,[手動の电子邮箱プシロン]ボックスに正のスカラ,値を入力します。適切な値が自動的に事前選択されます。この値を少しだけ変化させて,モデルが改善されるかどうかを調べます。

    ヒント

    より柔軟なモデルを作成するには,电子邮件プシロンの値を小さくします。

  • カ,ネルスケ,ルモ,ド

    カ,ネルスケ,ルは,カ,ネルが有意に変化する予測子のスケ,ルを制御します。カ,ネルスケ,ルが小さくなると,モデルの柔軟性が高くなります。

    [カ,ネルスケ,ルモ,ド][自動]に設定した場合,ヒュ,リスティック手法を使用してカ,ネルスケ,ルが選択されます。

    モデルを微調整するには,カ,ネルスケ,ルを手動で指定します。[カ,ネルスケ,ルモ,ド][手動]に設定して値を指定します。値を変更するには,矢印をクリックするか,[手動カ,ネルスケ,ル]ボックスに正のスカラ,値を入力します。適切な値が自動的に事前選択されます。この値を少しだけ変化させて,モデルが改善されるかどうかを調べます。

    ヒント

    より柔軟なモデルを作成するには,カ,ネルスケ,ルの値を小さくします。

  • 標準化

    予測子は,標準化によって平均が0,標準偏差が1になるように変換されます。標準化により、任意のスケールに対する依存性が予測子から除去され、通常は性能が向上します。

あるいは,ハイパーパラメーターの最適化を使用して,いくつかのモデルオプションを自動的に選択することもできます。回帰学習器アプリのハパパラメタの最適化を参照してください。

ガウス過程回帰モデル

回帰学習器でガウス過程回帰(gpr)モデルに学習をさせることができます。多くの場合に探地雷达モデルは非常に正確ですが,解釈が困難になる可能性があります。

ヒント

[モデル]ギャラリ,の[すべてのGPRモデル]をクリックして最適化不可能なGPRモデルの各オプションを試し,使用しているデータに最適なモデルが生成されるのはどの設定であるかを調べます。最適なモデルを[モデル]ペesc escンで選択し,特徴選択の使用と一部の詳細オプションの変更によりモデルの改善を試します。

回帰モデルのタ@ @プ 解釈可能性 モデルの柔軟性
有理二次
困難 自動
二乗指数
困難 自動
Matern 5/2
困難 自動
指数
困難 自動

ガウス過程回帰では,関数の空間に対する確率分布を使用して応答がモデル化されます。[モデル]ギャラリーの事前設定の柔軟性は,学習誤差が小さくなると同時に過適合を防ぐように自動的に選択されます。ガウス過程回帰の詳細にいては,ガウス過程回帰モデルを参照してください。

ヒント

ワクフロの例にいては,回帰学習器アプリを使用して回帰木に学習をさせるを参照してください。

ガウス過程回帰モデルのハパパラメタのオプション

回帰学習器は,gprモデルの学習に関数fitrgpを使用します。

次のオプションをアプリで設定できます。

  • 基底関数

    基底関数は,ガウス過程回帰モデルの事前平均関数の形式を指定します。[ゼロ][定数]および[線形]から選択できます。異なる基底関数を選択して,モデルが改善されるかどうかを調べます。

  • カ,ネル関数

    カ,ネル関数は,予測子値間の距離の関数として応答の相関を決定します。[有理二次][二乗指数](Matern 5/2)(Matern 3/2)および[指数]から選択できます。

    カネル関数の詳細にいては,カ,ネル(共分散)関数のオプションを参照してください。

  • 等方性カ,ネルを使用

    等方性カネルを使用する場合,すべての予測子にいて相関長のスケルが同じになります。非等方性カ,ネルの場合,相関長のスケ,ルが予測子変数ごとに異なります。

    非等方性カーネルを使用すると,モデルの精度が向上する可能性がありますが,当てはめにかかる時間が長くなる可能性があります。

    非等方性カネルの詳細にいては,カ,ネル(共分散)関数のオプションを参照してください。

  • カ,ネルモ,ド

    [カ,ネルスケ,ル]および[信号標準偏差]というカ,ネルパラメ,タ,の“初期”値を手動で指定できます。信号標準偏差は応答値の事前標準偏差です。既定では,カ,ネルパラメ,タ,が初期値を開始点として,局所的に最適化されます。固定されたカ,ネルパラメ,タ,を使用するには,詳細オプションの[数値パラメ,タ,の最適化]チェックボックスをオフにします。

    [カ,ネルスケ,ルモ,ド][自動]に設定した場合,ヒュ,リスティック手法を使用して初期カ,ネルパラメ,タ,が選択されます。

    [カ,ネルスケ,ルモ,ド][手動]に設定した場合,初期値を指定できます。ボタンをクリックするか,[カ,ネルスケ,ル]ボックスと[信号標準偏差]ボックスに正のスカラ,値を入力します。

    [等方性カ,ネルを使用]チェックボックスをオフにした場合,初期カ,ネルパラメ,タ,を手動で設定することはできません。

  • シグマモ,ド

    観測値のノ@ @ズ標準偏差[シグマ]“初期”値を手動で指定できます。既定では,観測値のノaaplズ標準偏差が,初期値を開始点として最適化されます。固定されたカ,ネルパラメ,タ,を使用するには,詳細オプションの[数値パラメ,タ,の最適化]チェックボックスをオフにします。

    [シグマモ,ド][自動]に設定した場合,ヒュ,リスティック手法を使用して観測値の初期ノ,ズ標準偏差が選択されます。

    [シグマモ,ド][手動]に設定した場合,初期値を指定できます。ボタンをクリックするか,[シグマ]ボックスに正のスカラ,値を入力します。

  • 標準化

    予測子は,標準化によって平均が0,標準偏差が1になるように変換されます。標準化により、任意のスケールに対する依存性が予測子から除去され、通常は性能が向上します。

  • 数値パラメ,タ,の最適化

    このオプションを指定すると,gprモデルの数値パラメ,タ,が自動的に最適化されます。最適化されるパラメ,タ,は,[基底関数]の係数,カ,ネルパラメ,タ,[カ,ネルスケ,ル]および[信号標準偏差],および観測値のノescズ標準偏差[シグマ]です。

あるいは,ハイパーパラメーターの最適化を使用して,いくつかのモデルオプションを自動的に選択することもできます。回帰学習器アプリのハパパラメタの最適化を参照してください。

カ,ネル近似モデル

回帰学習器では,カ,ネル近似モデルを使用して多数の観測値を含むデ,タの非線形回帰を実行できます。大規模なインメモリデータに対しては,ガウスカーネルによるSVMモデルに比べ,カーネル近似モデルの方が学習と予測が高速になる傾向があります。

ガウスカーネル回帰モデルは,低次元空間の予測子を高次元空間にマッピングしてから,変換された予測子に高次元空間で線形モデルを当てはめます。拡張空間に支持向量机線形モデルを当てはめるか最小二乗線形モデルを当てはめるかを選択します。

ヒント

[モデル]ギャラリ,の[すべてのカ,ネル]をクリックして事前設定済みのカーネル近似の各オプションを試し,使用しているデータに最適なモデルが生成されるのはどの設定であるかを調べます。最適なモデルを[モデル]ペesc escンで選択し,特徴選択の使用と一部の詳細オプションの変更によりモデルの改善を試します。

回帰モデルのタ@ @プ 解釈可能性 モデルの柔軟性
支持向量机カ,ネル
困難 中- - - - - -[カ,ネルスケ,ル]の設定を小さくすると向上
最小二乗カ,ネル回帰
困難 中- - - - - -[カ,ネルスケ,ル]の設定を小さくすると向上

例にいては,回帰学習器アプリを使用したカ,ネル近似モデルの学習を参照してください。

カネルモデルのハパパラメタのオプション

回帰学習器は,カ,ネル近似回帰モデルの学習に関数fitrkernelを使用します。

選択したモデルの[概要]タブで次のオプションを設定できます。

  • 学習器-拡張空間に当てはめる線形回帰モデルのタie浏览器プを指定します。支持向量机または最小二乘核のいずれかになります。支持向量机モデルではモデルの当てはめでイプシロン不感応損失を使用するのに対し、最小二乗モデルでは平均二乗誤差 (MSE) を使用します。

  • 拡張次元数-拡張空間内の次元数を指定します。

    • このオプションを[自動]に設定した場合,次元数が2 . ^装天花板(最低(log2 (p) + 5、15))に設定されます。pは予測子の個数です。

    • このオプションを[手動]に設定した場合,矢印をクリックするかボックスに正のスカラ,値を入力して値を指定できます。

  • 正則化強度(Lambda)-リッジ(l2)正則化ペナルティ項を指定します。支持向量机学習器を使用する場合、ボックス制約 C と正則化項の強度 λ にはC = 1/(λn)という関係があります。Nは観測値の個数です。

    • このオプションを[自動]に設定した場合,正則化強度が1 / nに設定されます。Nは観測値の個数です。

    • このオプションを[手動]に設定した場合,矢印をクリックするかボックスに正のスカラ,値を入力して値を指定できます。

  • カ,ネルスケ,ル—カネルスケリングを指定します。この値を使用して,ランダムな特徴量拡張用のランダムな基底が取得されます。詳細にいては,ランダムな特徴量拡張を参照してください。

    • このオプションを[自動]に設定した場合,ヒュ,リスティック手法を使用してスケ,ル値が選択されます。ヒュ,リスティック手法では副標本抽出を使用します。そのため,結果を再現するには,回帰モデルの学習の前にrngを使用して乱数シ,ドを設定します。

    • このオプションを[手動]に設定した場合,矢印をクリックするかボックスに正のスカラ,値を入力して値を指定できます。

  • プシロン—ereplicationプシロン不感応区間の幅の半分を指定します。このオプションは,[学習器]支持向量机の場合に使用できます。

    • このオプションを[自動]に設定した場合,[applerプシロン]の値は差(Y) / 13.49と決定されます。これは,応答変数Yの四分位数間範囲を使用した標準偏差の1/10の推定値です。差(Y)がゼロに等しい場合,値は0.1に設定されます。

    • このオプションを[手動]に設定した場合,矢印をクリックするかボックスに正のスカラ,値を入力して値を指定できます。

  • 反復制限-学習反復の最大数を指定します。

木のアンサンブル

回帰学習器で回帰木のアンサンブルに学習をさせることができます。アンサンブルモデルでは,複数の弱学習器の結果を結合して1つの高品質のアンサンブルモデルにします。

ヒント

[モデル]ギャラリ,の[すべてのアンサンブル]をクリックして最適化不可能なアンサンブルの各オプションを試し,使用しているデータに最適なモデルが生成されるのはどの設定であるかを調べます。最適なモデルを[モデル]ペesc escンで選択し,特徴選択の使用と一部の詳細オプションの変更によりモデルの改善を試します。

回帰モデルのタ@ @プ 解釈可能性 アンサンブル法 モデルの柔軟性
ブ,スティング木
困難

回帰木学習器による最小二乗ブスティング(LSBoost)。

中から高

バギング木
困難

回帰木学習器によるブ,トストラップ集約,すなわ,バギング。

ヒント

ワクフロの例にいては,回帰学習器アプリを使用して回帰木に学習をさせるを参照してください。

アンサンブルモデルのハパパラメタのオプション

回帰学習器はアンサンブルモデルの学習に関数fitrensembleを使用します。次のオプションを設定できます。

  • 最小リフサズ

    各葉ノ,ドの応答の計算に使用する学習標本の最小数を指定します。回帰木を成長させるときは,単純さと予測力を考慮してください。葉の最小サ电子邮箱ズを変更するには,ボタンをクリックするか,[最小リフサズ]ボックスに正の整数値を入力します。

    • 通常,多くの小さい葉がある複雑な木は,学習デ,タに対して非常に正確です。しかし,独立した検定セットに対しては同等の精度にならない場合があります。葉が非常に多い木は過適合になる傾向があり,多くの場合に検証精度が学習(再代入)精度よりはるかに低くなります。

    • 対照的に,少数の大きい葉がある粗い木では学習精度が高くなりません。しかし,代表的な検定セットの精度に学習精度が近づく可能性があるという点で,粗い木の方がロバストになる可能性があります。

    ヒント

    より柔軟なモデルを作成するには,[最小リフサズ]を小さくします。

  • 学習器の数

    学習器の数を変更してモデルが向上するか確認してください。学習器を増やすと精度が向上しますが、近似に時間がかかる可能性があります。

    ヒント

    より柔軟なモデルを作成するには,[学習器の数]を大きくします。

  • 学習率

    ブ,スティング木の場合に縮小学習率を指定します。学習率を1 未満に設定すると、アンサンブルでは学習反復数を増加させる必要がありますが、多くの場合に精度が向上します。一般的な初期選択肢は 0.1 です。

あるいは,ハイパーパラメーターの最適化を使用して,いくつかのモデルオプションを自動的に選択することもできます。回帰学習器アプリのハパパラメタの最適化を参照してください。

ニュ,ラルネットワ,ク

一般にニュ,ラルネットワ,クモデルは予測精度が高いものの,解釈は容易ではありません。

ニュラルネットワク内の全結合層のサズと数によっては,モデルの柔軟性が向上します。

ヒント

[モデル]ギャラリ,の[すべてのニュ,ラルネットワ,ク]をクリックして事前設定済みのニューラルネットワークの各オプションを試し,使用しているデータに最適なモデルが生成されるのはどの設定であるかを調べます。最適なモデルを[モデル]ペesc escンで選択し,特徴選択の使用と一部の詳細オプションの変更によりモデルの改善を試します。

回帰モデルのタ@ @プ 解釈可能性 モデルの柔軟性
ナロ,ニュ,ラルネットワ,ク
困難 中- - - - - -[最初の層のサ电子邮箱ズ]の設定に応じて向上
ミディアムニュ,ラルネットワ,ク
困難 中- - - - - -[最初の層のサ电子邮箱ズ]の設定に応じて向上
ワドニュラルネットワク
困難 中- - - - - -[最初の層のサ电子邮箱ズ]の設定に応じて向上
2層ニュラルネットワク
困難 中- - - - - -[最初の層のサ电子邮箱ズ]および[2番目の層のサescズ]の設定に応じて向上
3層ニュラルネットワク
困難 中- - - - - -[最初の層のサ电子邮箱ズ][2番目の層のサescズ],および[3番目の層のサズ]の設定に応じて向上

各モデルは回帰用の全結合のフィ,ドフォワ,ドニュ,ラルネットワ,クです。ニュ,ラルネットワ,クの最初の全結合層にはネットワーク入力 (予測子データ) からの結合があり、後続の各層には前の層からの結合があります。各全結合層では、入力に重み行列が乗算されてからバイアス ベクトルが加算されます。最終層を除く各全結合層の後には活性化関数が続きます。最終全結合層によってネットワークの出力、つまり予測応答値が生成されます。詳細については、ニュ,ラルネットワ,クの構造を参照してください。

例にいては,回帰学習器アプリを使用した回帰ニュ,ラルネットワ,クの学習を参照してください。

ニュラルネットワクモデルのハパパラメタのオプション

回帰学習器は,ニュ,ラルネットワ,クモデルの学習に関数fitrnetを使用します。次のオプションを設定できます。

  • 全結合層の数—回帰用の最終全結合層を除く,ニュラルネットワク内の全結合層の数を指定します。最大3の全結合層を選択できます。

  • 最初の層のサ@ @ズ2番目の層のサie浏览器ズ3番目の層のサie浏览器ズ—最終全結合層を除く,各全結合層のサescズを指定します。複数の全結合層をもつニューラルネットワークを作成するように選択した場合は,サイズを小さくした層を指定することを検討してください。

  • 活性化-最終全結合層を除く、すべての全結合層の活性化関数を指定します。线性整流函数(Rectified Linear Unit)双曲正切没有一个乙状结肠のいずれかの活性化関数を選択します。

  • 反復制限-学習反復の最大数を指定します。

  • 正則化強度(Lambda)-リッジ(l2)正則化ペナルティ項を指定します。

  • デ,タの標準化-数値予測子を標準化するかどうかを指定します。予測子ごとにスケ,ルが大きく異なる場合,標準化を行うと近似を向上させることができます。デ,タを標準化することを強く推奨します。

あるいは,ハイパーパラメーターの最適化を使用して,いくつかのモデルオプションを自動的に選択することもできます。回帰学習器アプリのハパパラメタの最適化を参照してください。

関連するトピック