このペ,ジの翻訳は最新ではありません。ここをクリックして,英語の最新版を参照してください。
モデルの作成と評価
高品質の回帰モデルを構築するには,正しい特徴量(予測子)の選択,ハイパーパラメーター(データへの当てはめを行わないモデルパラメーター)の調整,残差診断によるモデル仮定の評価を行うことが重要です。
ハイパーパラメーターの値の選択とモデルの交差検証を繰り返すことにより,ハイパーパラメーターを調整できます。このプロセスでは複数のモデルが生成されますが,推定された汎化誤差が最小になるものが最適なモデルである場合があります。たとえば,SVMモデルを調整するには,一連のボックス制約およびカーネルスケールを選択し,値の各ペアについてモデルを交差検証して,10分割交差検証の平均二乗誤差の推定値を比較します。
回帰モデルに学習させる前に新しい特徴量を設計するには,genrfeatures
を使用します。
回帰モデルの構築と評価を対話的に行うには,回帰学習器アプリを使用します。
調整されたハパパラメタでモデルを自動的に選択するには,fitrauto
を使用します。この関数は,回帰モデルのタイプの選択をさまざまなハイパーパラメーターの値で試し,適切に実行されることが期待される最終モデルを返します。デタに最適な回帰モデルのタプがわからない場合は,fitrauto
を使用します。
统计和机器学习工具箱™の一部のノンパラメトリック回帰関数では,ベイズ最適化,グリッド探索またはランダム探索による自動的なハイパーパラメーター調整が提供されます。ベ主机ズ最適化を実装するための主机関数であるbayesopt
は,他の多くの用途にも応用が利きます。詳細は,ベズ最適化のワクフロを参照してください。
回帰モデルを解釈するために,石灰
、沙普利
およびplotPartialDependence
を使用できます。
アプリ
回帰学習器 | 教師あり機械学習を使用して,デ,タを予測するように回帰モデルに学習をさせる |
関数
オブジェクト
トピック
回帰学習器アプリのワクフロ
- 回帰学習器アプリにより回帰モデルに学習をさせる
自動,手動および並列学習など,回帰モデルの学習,比較および改善を行うためのワ,クフロ,です。 - 回帰モデルのオプションの選択
回帰学習器で,選択したモデルに自動的に学習させるか,線形回帰モデル,回帰木,サポートベクターマシン,ガウス過程回帰モデル,カーネル近似モデル,回帰木のアンサンブル,および回帰ニューラルネットワークのオプションを比較して調整する。 - 回帰学習器アプリの使用による特徴選択と特徴変換
回帰学習器で,プロットまたは特徴ランク付けアルゴリズムを使用して有用な予測子を識別し,含める特徴量を選択し,PCAを使用して特徴量を変換する。 - 回帰学習器におけるモデルの性能の可視化と評価
モデルの統計量を比較し,結果を可視化します。
特徴選択
- 特徴選択の紹介
特徴選択アルゴリズムにいて学び,特徴選択に使用できる関数を確認します。 - 逐次特徴選択
このトピックでは,逐次特徴選択の基本を説明し,カスタム基準と関数sequentialfs
を使用して逐次的に特徴量を選択する例を示します。 - 近傍成分分析(nca)特徴選択
近傍成分分析(NCA)は,特徴量を選択するためのノンパラメトリックな手法であり,回帰および分類アルゴリズムの予測精度を最大化することを目的とします。 - 回帰にncaを使用するロバスト特徴選択
カスタムなロバスト損失関数をncaで使用して,外れ値に対してロバストな特徴選択を実行します。 - ランダムフォレストの予測子の選択
交互作用検定アルゴリズムを使用してランダムフォレストの分割予測子を選択します。
特徴量エンジニアリング
- 回帰用の自動特徴量エンジニアリング
回帰モデルに学習させる前に新しい特徴量を設計するために,genrfeatures
を使用する。新しいデ,タの予測の前に同じ特徴変換を新しいデ,タセットに適用する。
自動モデル選択
- ベesc escズ最適化およびasha最適化による回帰モデルの自動選択
fitrauto
を使用し,指定した学習予測子と応答データに基づいてさまざまなハイパーパラメーターの値をもつ回帰モデルのタイプの選択を自動的に試行。
ハパパラメタの最適化
- ベズ最適化のワクフロ
近似関数を使用するかbayesopt
を直接呼び出してベ@ @ズ最適化を実行します。 - ベ@ @ズ最適化用の変数
ベ@ @ズ最適化用の変数を作成します。 - ベ@ @ズ最適化の目的関数
ベ@ @ズ最適化の目的関数を作成します。 - ベ@ @ズ最適化の制約
ベ@ @ズ最適化に対してさまざまな種類の制約を設定します。 - ブ,スティング回帰アンサンブル回帰の最適化
アンサンブル回帰の交差検証損失を最小化します。 - ベ@ @ズ最適化のプロット関数
ベ@ @ズ最適化を視覚的に監視します。 - ベ@ @ズ最適化の出力関数
ベ@ @ズ最適化を監視します。 - ベ@ @ズ最適化のアルゴリズム
ベ▪▪▪ズ最適化の基となるアルゴリズムに▪▪▪いて理解します。 - 並列ベ@ @ズ最適化
並列ベ@ @ズ最適化はどのように機能するか。
モデルの解釈
- 機械学習モデルの解釈
石灰
オブジェクトおよび沙普利
オブジェクトと関数plotPartialDependence
を使用してモデル予測を説明する。 - 機械学習モデルのシャプレ値
kernelSHAPとkernelSHAPの拡張機能の2つのアルゴリズムを使用して,機械学習モデルのシャープレイ値を計算する。
交差検証
- 並列計算を使用する交差検証の実装
並列計算を使用して交差検証を高速化します。 - ブ,スティング回帰木のアンサンブルを使用した時系列予想
ブ,スティング回帰木のアンサンブルを使用して,単一ステップと複数ステップの時系列予想を実行します。
線形モデルの診断
- 線形回帰の結果の解釈
線形回帰の出力統計を表示および解釈します。 - 線形回帰
線形回帰モデルを当てはめ,結果を調べます。 - 交互作用の影響による線形回帰
交互作用効果がある線形回帰モデルを作成および分析し,結果を解釈します。 - 出力と診断統計量の概要
モデルのプロパティとオブジェクト関数を使用して,あてはめたモデルを評価する。 - F統計量とt統計量
線形回帰におけるf統計量は,分散分析(方差分析)手法で使用される検定統計量です。これにより,モデルまたはモデルの成分の有意性を検定できます。T統計量は,回帰係数に関する推定を行うために役立ます。 - 決定係数(r平方)
決定係数(平方)は線形回帰モデルの独立変数Xで説明される応答変数yの変化に比例する量を表します。 - 係数の標準誤差と信頼区間
推定された係数の分散と共分散から,回帰係数の推定値の精度がわかります。 - 残差
残差は,yの外れ値を検出し,回帰モデルの誤差項に関する線形回帰仮定を確認する場合に便利です。 - ダ,ビン·ワトソン検定
ダ,ビン·ワトソン検定は,時系列デ,タの残差間の自己相関の有無を評価します。 - クックの距離
クックの距離はxの値(予測子変数の観測数)から外れ値を特定する場合に便利です。 - ハット行列とてこ比
ハット行列を使用するとてこ比を測定できます。 - 1標本を取り除いたときの統計
1標本を取り除いたときの共分散の変化(CovRatio
)により,回帰近似に影響を与える観測値が特定されます。
一般化線形モデルの診断
- 一般化線形モデル
一般化線形モデルは,線形手法を使用して,予測子項と応答変数との間の潜在的な非線形関係を説明します。
非線形モデルの診断
- 非線形回帰
パラメトリック非線形モデルは,連続応答変数と1以上の連続予測子変数の関係を表します。