特徴抽出
特徴抽出とは
特徴抽出は、入力特徴量を新しい出力特徴量にマッピングする一連の方法です。多くの特徴抽出法では、教師なし学習を使用して特徴量を抽出します。PCA や NNMF など一部の特徴抽出と異なり、この節で説明する方法では次元を増やす (および減らす) ことができます。内部的に、これらの方法では非線形目的関数の最適化を実行します。詳細については、スパース フィルター アルゴリズムまたは再構成 ICA アルゴリズムを参照してください。
特徴抽出の代表的な用途の 1 つは、イメージの特徴量を見つけることです。これらの特徴量を使用すると、分類精度を向上させることができます。たとえば、特徴抽出のワークフローを参照してください。もう 1 つの代表的な用途は、重ね合わせからの個別の信号の抽出で、しばしばブラインド信号源分離と呼ばれます。たとえば、混合信号の抽出を参照してください。
特徴抽出関数にはrica
とsparsefilt
の 2 つがあります。これらの関数には、これらの関数が作成する重建
およびSparseFiltering
オブジェクトが付けられて。。
スパース フィルター アルゴリズム
スパース フィルター アルゴリズムは、n
行p
列のデータ行列X
から始まります。各行は 1 つの観測値を、各列は 1 つの測定値を表します。列は特徴量または予測子とも呼ばれます。次に、初期のランダムなp
行q
列の重み行列W
または名前と値のペアInitialTransformWeights
で渡された重み行列を使用します。q
は、sparsefilt
に计算要求特徴量の个数。。
このアルゴリズムでは、標準的なメモリ制限 Broyden-Fletcher-Goldfarb-Shanno (LBFGS) 準ニュートン オプティマイザーを使用してスパース フィルターの目的関数を最小化しようとします。Nocedal および Wright[2]を参照してください。このオプティマイザーでは最大IterationLimit
回の反復を実行します。反復は、ノルムがStepTolerance
未満になったときに早く停止するか、現在の点における勾配のノルムがGradientTolerance
とスカラー τ の積未満であると計算されたときに停止します。ここで
| f |は目的关数ノルム, は初期勾配の無限大ノルムです。
目的関数では、各データ点について少数の非ゼロ特徴量を取得すると同時に、得られた各特徴量の重みをほぼ等しくしようとします。目的関数でどのようにこれらの目標を達成するかについては、Ngiam、Koh、Chen、Bhaskar および Ng[1]を参照してください。
多くの場合、5 から数百程度の比較的小さい値をIterationLimit
に設定すると、適切な特徴量が得られます。オプティマイザーに計算を継続させると過学習になる可能性があり、抽出された特徴量が新しいデータに対して適切には汎化されなくなります。
SparseFiltering
オブジェクトを構築した後で、转换
メソッドをて入力を新しい出力量マッピングマッピングします。
スパース フィルターの目的関数
目的関数を計算するため、スパース フィルター アルゴリズムでは以下のステップを使用します。目的関数は、n
行p
列のデータ行列X
とオプティマイザーが変化させる重み行列W
に依存します。重み行列W
の次元はp
xq
であり,p
は元特徴量の,,q
は要求された特徴量の個数です。
n
行q
列の行列x*w
を計算します。近似絶対値関数 をx*w
の各要素に適用して行列F
を取得します。ϕ は、絶対値関数をほぼ正確に近似する滑らかな非負対称関数です。近似 L2ノルムによって
F
の列を正規化します。つまり、正規化された行列 を次によって定義します。近似 L2ノルムによって の行を正規化します。つまり、正規化された行列 を次によって定義します。
行列 は、
X
内の変換された特徴量の行列です。目的関数 h (以下を参照) を最小化する重みW
(出力オブジェクトMdl
のmdl.transformweights
プロパティに格納されます) がsparsefilt
で求められると、関数转换
で同じ変換ステップに従って新しいデータを出力特徴量に変換できます。行列 1ノルムノルム行列のすべての要素の合计合计(构筑により负)として
W
) を計算します。名前と値のペア
Lambda
を厳密に正の値に設定した場合、sparsefilt
では次の修正された目的関数を使用します。ここで、wjは行列
W
のj番目の、λはLambda
の値。项のは,重みW
を小さくするです。Lambda
が正の場合にW
の列をイメージとしてプロットすると、Lambda
がゼロ同じとして滑らに见えます。
再構成 ICA アルゴリズム
再構成独立成分分析 (RICA) アルゴリズムは、目的関数の最小化をベースとします。このアルゴリズムでは入力データを出力特徴量にマッピングします。
ICA のソース モデルは次のとおりです。各観測値 x は、以下に従ってランダムなベクトル s によって生成されます。
xは長さ
p
の列ベクトル。μは、定数項を表す長さ
p
の列ベクトル。s は、互いが統計的に独立しているゼロ平均かつ単位分散の確率変数である要素をもつ、長さ
q
の列ベクトル。A は、サイズが
p
行q
列の混同。
このモデルをrica
で使用して、x の観測値から A を推定できます。混合信号の抽出を参照してください。
RICA アルゴリズムは、観測値 xiから構成されるn
行p
列のデータ行列X
から始まります。
各行は 1 つの観測値を、各列は 1 つの測定値を表します。列は特徴量または予測子とも呼ばれます。次に、初期のランダムなp
行q
列の重み行列W
または名前と値のペアInitialTransformWeights
で渡された重み行列を使用します。q
は、rica
に计算要求特徴量の个数。。重み行列W
は、サイズがp
行 1 列の列 wiから構成されます。
このアルゴリズムでは、標準的なメモリ制限 Broyden-Fletcher-Goldfarb-Shanno (LBFGS) 準ニュートン オプティマイザーを使用して再構成 ICA の目的関数を最小化しようとします。Nocedal および Wright[2]を参照してください。このオプティマイザーでは最大IterationLimit
回の反復を実行します。反復は、ノルムがStepTolerance
未満になるか、現在の点における勾配のノルムがGradientTolerance
とスカラー τ の積未満であると計算されると停止します。ここで
| f |は目的关数ノルム, は初期勾配の無限大ノルムです。
目的関数では、g(XW
) の要素の合計を最小化するほぼ正規直交の重み行列を取得しようとします。ここで、g は要素ごとにXW
に适用(以下でしますますますますますです。目的でどのどのようにこれらののの目标ををを达成达成达成达成するするかかについてについてについてについてはははははは[3]を参照してください。
重建
オブジェクトを構築した後で、转换
メソッドをて入力を新しい出力量マッピングマッピングします。
再構成 ICA の目的関数
目的関数では、名前と値のペアContrastFcn
を使用して指定したコントラスト関数が使用されます。コントラスト関数は、絶対値に似ている滑らかな凸関数です。既定のコントラスト関数は
です。の可能コントラスト关数について,,ContrastFcn
を参照してください。
n
行p
列のデータ行列X
とq
个の特徴の场合名前と値ペアペアLambda
の値として正則化パラメーター λ を指定すると、p
行q
列の行列W
に対する目的関数は次のようになります。
σjは ±1 である既知の定数です。σj= +1の場合、目的関数 h を最小化すると、
のヒストグラムはががピークにます(优性)。σj= –1の場合、目的関数 h を最小化すると、
のヒストグラムは 0 の付近で平らになります (劣ガウス性)。σjの値を指定するには、rica
の名前とのペアNonGaussianityIndicator
を使用します。
λがの,目的关数关数たゼロの最になる可能可能性ががあります。,,rica
は 1 に正規化された W に対して h を最小化します。つまり、W の各列 wjは、次によって列ベクトル vjに対して定義されます。
rica
vjに対して最小化を実行します。生成される最小行列W
は,入力データX
から出力特徴量XW
への変換を提供します。
参照
[1]Ngiam, Jiquan, Zhenghao Chen, Sonia A. Bhaskar, Pang W. Koh, and Andrew Y. Ng. “Sparse Filtering.” Advances in Neural Information Processing Systems. Vol. 24, 2011, pp. 1125–1133.https://papers.nips.cc/paper/4334-sparse-filtering.pdf
.
[2] Nocedal,J。和S. J. Wright。数值优化,第二版。Springer系列《运营研究》,Springer Verlag,2006年。
[3] Le, Quoc V., Alexandre Karpenko, Jiquan Ngiam, and Andrew Y. Ng. “ICA with Reconstruction Cost for Efficient Overcomplete Feature Learning.” Advances in Neural Information Processing Systems. Vol. 24, 2011, pp. 1017–1025.https://papers.nips.cc/paper/4467-ica-with-reconstruction-cost-for-efficient-overcomplete-feature-learning.pdf
.
参考
rica
|sparsefilt
|重建
|SparseFiltering