Main Content

特徴抽出

特徴抽出とは

特徴抽出は、入力特徴量を新しい出力特徴量にマッピングする一連の方法です。多くの特徴抽出法では、教師なし学習を使用して特徴量を抽出します。PCA や NNMF など一部の特徴抽出と異なり、この節で説明する方法では次元を増やす (および減らす) ことができます。内部的に、これらの方法では非線形目的関数の最適化を実行します。詳細については、スパース フィルター アルゴリズムまたは再構成 ICA アルゴリズムを参照してください。

特徴抽出の代表的な用途の 1 つは、イメージの特徴量を見つけることです。これらの特徴量を使用すると、分類精度を向上させることができます。たとえば、特徴抽出のワークフローを参照してください。もう 1 つの代表的な用途は、重ね合わせからの個別の信号の抽出で、しばしばブラインド信号源分離と呼ばれます。たとえば、混合信号の抽出を参照してください。

特徴抽出関数にはricasparsefiltの 2 つがあります。これらの関数には、これらの関数が作成する重建およびSparseFilteringオブジェクトが付けられて。。

スパース フィルター アルゴリズム

スパース フィルター アルゴリズムは、np列のデータ行列Xから始まります。各行は 1 つの観測値を、各列は 1 つの測定値を表します。列は特徴量または予測子とも呼ばれます。次に、初期のランダムなpq列の重み行列Wまたは名前と値のペアInitialTransformWeightsで渡された重み行列を使用します。qは、sparsefiltに计算要求特徴量の个数。。

このアルゴリズムでは、標準的なメモリ制限 Broyden-Fletcher-Goldfarb-Shanno (LBFGS) 準ニュートン オプティマイザーを使用してスパース フィルターの目的関数を最小化しようとします。Nocedal および Wright[2]を参照してください。このオプティマイザーでは最大IterationLimit回の反復を実行します。反復は、ノルムがStepTolerance未満になったときに早く停止するか、現在の点における勾配のノルムがGradientToleranceとスカラー τ の積未満であると計算されたときに停止します。ここで

τ = max ( 1 , min ( | f | , g 0 ) ) .

| f |は目的关数ノルム, g 0 は初期勾配の無限大ノルムです。

目的関数では、各データ点について少数の非ゼロ特徴量を取得すると同時に、得られた各特徴量の重みをほぼ等しくしようとします。目的関数でどのようにこれらの目標を達成するかについては、Ngiam、Koh、Chen、Bhaskar および Ng[1]を参照してください。

多くの場合、5 から数百程度の比較的小さい値をIterationLimitに設定すると、適切な特徴量が得られます。オプティマイザーに計算を継続させると過学習になる可能性があり、抽出された特徴量が新しいデータに対して適切には汎化されなくなります。

SparseFilteringオブジェクトを構築した後で、转换メソッドをて入力を新しい出力量マッピングマッピングします。

スパース フィルターの目的関数

目的関数を計算するため、スパース フィルター アルゴリズムでは以下のステップを使用します。目的関数は、np列のデータ行列Xとオプティマイザーが変化させる重み行列Wに依存します。重み行列Wの次元はpxqであり,pは元特徴量の,,qは要求された特徴量の個数です。

  1. nq列の行列x*wを計算します。近似絶対値関数 ϕ ( u ) = u 2 + 10 8 x*wの各要素に適用して行列Fを取得します。ϕ は、絶対値関数をほぼ正確に近似する滑らかな非負対称関数です。

  2. 近似 L2ノルムによってFの列を正規化します。つまり、正規化された行列 F ˜ ( i , j ) を次によって定義します。

    F ( j ) = i = 1 n ( F ( i , j ) ) 2 + 10 8 F ˜ ( i , j ) = F ( i , j ) / F ( j ) .

  3. 近似 L2ノルムによって F ˜ ( i , j ) の行を正規化します。つまり、正規化された行列 F ^ ( i , j ) を次によって定義します。

    F ˜ ( i ) = j = 1 q ( F ˜ ( i , j ) ) 2 + 10 8 F ^ ( i , j ) = F ˜ ( i , j ) / F ˜ ( i ) .

    行列 F ^ は、X内の変換された特徴量の行列です。目的関数 h (以下を参照) を最小化する重みW(出力オブジェクトMdlmdl.transformweightsプロパティに格納されます) がsparsefiltで求められると、関数转换で同じ変換ステップに従って新しいデータを出力特徴量に変換できます。

  4. 行列 F ^ ( i , j ) 1ノルムノルム行列のすべての要素の合计合计(构筑により负)としてW) を計算します。

    h ( W ) = j = 1 q i = 1 n F ^ ( i , j ) .

  5. 名前と値のペアLambdaを厳密に正の値に設定した場合、sparsefiltでは次の修正された目的関数を使用します。

    h ( W ) = j = 1 q i = 1 n F ^ ( i , j ) + λ j = 1 q w j T w j .

    ここで、wjは行列Wのj番目の、λはLambdaの値。项のは,重みWを小さくするです。Lambdaが正の場合にWの列をイメージとしてプロットすると、Lambdaがゼロ同じとして滑らに见えます。

再構成 ICA アルゴリズム

再構成独立成分分析 (RICA) アルゴリズムは、目的関数の最小化をベースとします。このアルゴリズムでは入力データを出力特徴量にマッピングします。

ICA のソース モデルは次のとおりです。各観測値 x は、以下に従ってランダムなベクトル s によって生成されます。

x = μ + A s .

  • xは長さpの列ベクトル。

  • μは、定数項を表す長さpの列ベクトル。

  • s は、互いが統計的に独立しているゼロ平均かつ単位分散の確率変数である要素をもつ、長さqの列ベクトル。

  • A は、サイズがpq列の混同。

このモデルをricaで使用して、x の観測値から A を推定できます。混合信号の抽出を参照してください。

RICA アルゴリズムは、観測値 xiから構成されるnp列のデータ行列Xから始まります。

X = [ x 1 T x 2 T x n T ] .

各行は 1 つの観測値を、各列は 1 つの測定値を表します。列は特徴量または予測子とも呼ばれます。次に、初期のランダムなpq列の重み行列Wまたは名前と値のペアInitialTransformWeightsで渡された重み行列を使用します。qは、ricaに计算要求特徴量の个数。。重み行列Wは、サイズがp行 1 列の列 wiから構成されます。

W = [ w 1 w 2 w q ] .

このアルゴリズムでは、標準的なメモリ制限 Broyden-Fletcher-Goldfarb-Shanno (LBFGS) 準ニュートン オプティマイザーを使用して再構成 ICA の目的関数を最小化しようとします。Nocedal および Wright[2]を参照してください。このオプティマイザーでは最大IterationLimit回の反復を実行します。反復は、ノルムがStepTolerance未満になるか、現在の点における勾配のノルムがGradientToleranceとスカラー τ の積未満であると計算されると停止します。ここで

τ = max ( 1 , min ( | f | , g 0 ) ) .

| f |は目的关数ノルム, g 0 は初期勾配の無限大ノルムです。

目的関数では、g(XW) の要素の合計を最小化するほぼ正規直交の重み行列を取得しようとします。ここで、g は要素ごとにXWに适用(以下でしますますますますますです。目的でどのどのようにこれらののの目标ををを达成达成达成达成するするかかについてについてについてについてはははははは[3]を参照してください。

重建オブジェクトを構築した後で、转换メソッドをて入力を新しい出力量マッピングマッピングします。

再構成 ICA の目的関数

目的関数では、名前と値のペアContrastFcnを使用して指定したコントラスト関数が使用されます。コントラスト関数は、絶対値に似ている滑らかな凸関数です。既定のコントラスト関数は g = 1 2 log ( Cosh ( 2 x ) ) です。の可能コントラスト关数について,,ContrastFcnを参照してください。

np列のデータ行列Xq个の特徴の场合名前と値ペアペアLambdaの値として正則化パラメーター λ を指定すると、pq列の行列Wに対する目的関数は次のようになります。

h = λ n i = 1 n W W T x i x i 2 2 + 1 n i = 1 n j = 1 q σ j g ( w j T x i )

σjは ±1 である既知の定数です。σj= +1の場合、目的関数 h を最小化すると、 w j T x i のヒストグラムはががピークにます(优性)。σj= –1の場合、目的関数 h を最小化すると、 w j T x i のヒストグラムは 0 の付近で平らになります (劣ガウス性)。σjの値を指定するには、ricaの名前とのペアNonGaussianityIndicatorを使用します。

λがの,目的关数关数たゼロの最になる可能可能性ががあります。,,ricaは 1 に正規化された W に対して h を最小化します。つまり、W の各列 wjは、次によって列ベクトル vjに対して定義されます。

w j = v j v j T v j + 10 8 .

ricavjに対して最小化を実行します。生成される最小行列Wは,入力データXから出力特徴量XWへの変換を提供します。

参照

[1]Ngiam, Jiquan, Zhenghao Chen, Sonia A. Bhaskar, Pang W. Koh, and Andrew Y. Ng. “Sparse Filtering.” Advances in Neural Information Processing Systems. Vol. 24, 2011, pp. 1125–1133.https://papers.nips.cc/paper/4334-sparse-filtering.pdf.

[2] Nocedal,J。和S. J. Wright。数值优化,第二版。Springer系列《运营研究》,Springer Verlag,2006年。

[3] Le, Quoc V., Alexandre Karpenko, Jiquan Ngiam, and Andrew Y. Ng. “ICA with Reconstruction Cost for Efficient Overcomplete Feature Learning.” Advances in Neural Information Processing Systems. Vol. 24, 2011, pp. 1017–1025.https://papers.nips.cc/paper/4467-ica-with-reconstruction-cost-for-efficient-overcomplete-feature-learning.pdf.

参考

|||

関連するトピック