このページの翻訳は最新ではありません。ここをクリックして,英語の最新版を参照してください。
このページは,MATLAB®にあるすべての深層学習層の一覧を提供します。
さまざまなタスクで層からネットワークを作成する方法については,以下の例を参照してください。
タスク | 詳細 |
---|---|
イメージの分類または回帰用の深層学習ネットワークを作成する | |
シーケンスおよび時系列データ用の深層学習ネットワークを作成する | |
オーディオデータ用の深層学習ネットワークを作成する | 深層学習を使用した音声コマンド認識 |
テキストデータ用の深層学習ネットワークを作成する |
さまざまな層のタイプを作成するには,以下の関数を使用します。または,ディープネットワークデザイナーアプリを使用してネットワークを対話形式で作成します。
独自のカスタム層を定義する方法については,カスタム深層学習層の定義を参照してください。
層 | 説明 |
---|---|
イメージ入力層は,ネットワークに2次元イメージを入力し,データ正規化を適用します。 | |
3次元イメージ入力層は,ネットワークに3次元イメージまたは3次元ボリュームを入力し,データ正規化を適用します。 | |
シーケンス入力層は,ネットワークにシーケンスデータを入力します。 | |
特徴入力層は,特徴データをネットワークに入力し,データ正規化を適用します。特徴(空間次元または時間次元のないデータ)を表す数値スカラーのデータセットがある場合は,この層を使用します。 | |
|
ROI入力層は、快速R-CNNオブジェクト検出ネットワークにイメージを入力します。 |
層 | 説明 |
---|---|
2次元畳み込み層は,入力にスライディング畳み込みフィルターを適用します。 | |
3次元畳み込み層は,3次元入力にスライディング直方体畳み込みフィルターを適用します。 | |
グループ化された2次元畳み込み層は,入力チャネルをグループに分けて,スライディング畳み込みフィルターを適用します。チャネル方向に分離可能な(深さ方向に分離可能とも呼ばれる)畳み込みには,グループ化された畳み込み層を使用します。 | |
2次元転置畳み込み層では特徴マップがアップサンプリングされます。 | |
3次元転置畳み込み層では3次元の特徴マップがアップサンプリングされます。 | |
全結合層は,入力に重み行列を乗算し,バイアスベクトルを加算します。 |
層 | 説明 |
---|---|
シーケンス入力層は,ネットワークにシーケンスデータを入力します。 | |
LSTM層は,時系列データおよびシーケンスデータのタイムステップ間の長期的な依存関係を学習します。 | |
双方向LSTM (BiLSTM)層は,時系列データまたはシーケンスデータのタイムステップ間の双方向の長期的な依存関係を学習します。これらの依存関係は,各タイムステップで時系列全体からネットワークに学習させる場合に役立ちます。 | |
格勒乌層は,時系列データおよびシーケンスデータのタイムステップ間の依存関係を学習します。 | |
シーケンス折りたたみ層は,イメージシーケンスのバッチをイメージのバッチに変換します。シーケンス折りたたみ層を使用して,畳み込み演算をイメージシーケンスのタイムステップごとに個別に実行します。 | |
シーケンス展開層は,シーケンスの折りたたみ後に入力データのシーケンス構造を復元します。 | |
フラット化層は,入力の空間次元を折りたたんでチャネルの次元にします。 | |
|
単語埋め込み層は,単語インデックスをベクトルにマッピングします。 |
層 | 説明 |
---|---|
ReLU層は,入力の各要素に対してしきい値処理を実行し,値がゼロよりも小さい場合はゼロに設定します。 | |
漏水的ReLU層は,しきい値処理を実行し,入力値がゼロよりも小さい場合は固定のスカラーによって乗算されます。 | |
クリップされたReLU層は,しきい値処理を実行し,入力値がゼロよりも小さい場合はゼロに設定して,値が“クリップ上限”を超える場合はそのクリップ上限に設定します。 | |
ELU活性化層は,正の入力に対して恒等演算を実行し,負の入力に対して非線形となる指数演算を実行します。 | |
双曲線正接(双曲正切)活性化層は,層の入力に対して双曲正切関数を適用します。 | |
|
PReLU層は,しきい値処理を実行し,各チャネルで,入力値がゼロよりも小さい場合は,学習時に得られたスカラーによって乗算されます。 |
層 | 説明 |
---|---|
バッチ正規化層は,ミニバッチ全体で各入力チャネルを正規化します。畳み込みニューラルネットワークの学習速度を上げ,ネットワークの初期化に対する感度を下げるには,畳み込み層の間にあるバッチ正規化層と,ReLU層などの非線形性を使用します。 | |
グループ正規化層は,入力データのチャネルを複数のグループに分割し,各グループのアクティベーションを正規化します。畳み込みニューラルネットワークの学習速度を上げ,ネットワークの初期化に対する感度を下げるには,畳み込み層の間にあるグループ正規化層と,ReLU層などの非線形性を使用します。グループの数を適切に設定することで,インスタンスの正規化や層の正規化を実行できます。 | |
チャネル単位の局所応答(クロスチャネル)正規化層は,チャネル単位の正規化を行います。 | |
ドロップアウト層は,与えられた確率でランダムに,入力要素をゼロに設定します。 | |
2次元切り取り層は,入力に2次元のトリミングを適用します。 | |
3次元切り取り層は,3次元ボリュームをトリミングし入力特徴マップのサイズにします。 | |
|
2次元サイズ変更層は,スケール係数による2次元入力のサイズ変更,または指定された高さと幅への2次元入力のサイズ変更を行います。 |
|
3次元サイズ変更層は,スケール係数による3次元入力のサイズ変更,または指定された高さ,幅,深さへの3次元入力のサイズ変更を行います。 |
層 | 説明 |
---|---|
平均プーリング層は,入力を四角形のプーリング領域に分割し,各領域の平均値を計算することによって,ダウンサンプリングを実行します。 | |
3次元平均プーリング層は,3次元入力を直方体のプーリング領域に分割し,各領域の平均値を計算することによって,ダウンサンプリングを実行します。 | |
グローバル平均プーリング層は,入力の高さおよび幅の次元の平均を計算することによって,ダウンサンプリングを実行します。 | |
3次元グローバル平均プーリング層は,入力の高さ,幅,および深さの次元の平均を計算することによって,ダウンサンプリングを実行します。 | |
最大プーリング層は,入力を四角形のプーリング領域に分割し,各領域の最大値を計算することによって,ダウンサンプリングを実行します。 | |
3次元最大プーリング層は,3次元入力を直方体のプーリング領域に分割し,各領域の最大値を計算することによって,ダウンサンプリングを実行します。 | |
グローバル最大プーリング層は,入力の高さおよび幅の次元の最大値を計算することによって,ダウンサンプリングを実行します。 | |
3次元グローバル最大プーリング層は,入力の高さ,幅,および深さの次元の最大値を計算することによって,ダウンサンプリングを実行します。 | |
最大逆プーリング層は,最大プーリング層の出力を逆プーリングします。 |
層 | 説明 |
---|---|
加算層は,複数のニューラルネットワーク層からの入力を要素単位で加算します。 | |
乗算層は,複数のニューラルネットワーク層からの入力を要素単位で乗算します。 | |
深さ連結層は,高さと幅が同じ入力を取り,3番目の次元(チャネルの次元)に沿ってこれらを連結します。 | |
連結層は入力を取り,指定された次元に沿って入力を連結します。入力のサイズは,連結の次元を除き,すべての次元で同じでなければなりません。 | |
|
重み付き加算層は,複数のニューラルネットワーク層からの入力を要素単位でスケーリングして加算します。 |
層 | 説明 |
---|---|
|
ROI入力層は、快速R-CNNオブジェクト検出ネットワークにイメージを入力します。 |
|
ROI最大プーリング層は,入力の特徴マップ内のすべての四角形ROIに対して固定サイズの特徴マップを出力します。快R-CNNオブジェクトまたは更快R-CNNオブジェクト検出ネットワークを作成するには,この層を使用します。 |
|
ROI配置層は,入力の特徴マップ内のすべての四角形ROIに対して固定サイズの特徴マップを出力します。Mask-RCNNネットワークを作成するには,この層を使用します。 |
|
アンカーボックス層は,オブジェクト検出ネットワークで使用される特徴マップのアンカーボックスを保存します。 |
|
領域提案層は更快R-CNN内の領域提案ネットワーク(RPN)の一部として,イメージの有力なオブジェクトの周囲に境界ボックスを出力します。 |
|
SSDマージ層は,後続の回帰や分類の損失計算に使用する特徴マップの出力をマージします。 |
|
空間から深さへの変換層は,入力の空間ブロックを深さの次元に置換します。特徴データを破棄することなく,異なるサイズの特徴マップを組み合わせる必要がある場合は,この層を使用します。 |
|
領域提案ネットワーク(RPN)ソフトマックス層は,入力にソフトマックス活性化関数を適用します。快R-CNNオブジェクト検出ネットワークを作成するには,この層を使用します。 |
|
焦点損失層は,焦点損失を使用してオブジェクトのクラスを予測します。 |
|
領域提案ネットワーク(RPN)分類層は,交差エントロピー損失関数を使用して,イメージ領域を”“オブジェクトまたは“背景”として分類します。快R-CNNオブジェクト検出ネットワークを作成するには,この層を使用します。 |
|
ボックス回帰層は,スムーズL1損失関数を使用して,境界ボックスの位置を調整します。快R-CNNオブジェクトまたは更快R-CNNオブジェクト検出ネットワークを作成するには,この層を使用します。 |
層 | 説明 |
---|---|
|
投影形状変更層は1 x 1 xnumLatentInputs の配列を入力として受け取り,指定サイズのイメージに変換します。投影形状変更層を使用して,GANへのノイズ入力を形状変更します。 |
|
埋め込み形状変更層は,直言要素の数値インデックスを入力として受け取り,指定サイズのイメージに変換します。埋め込み形状変更層を使用して,直言データを条件付きGANに入力します。 |
層 | 説明 |
---|---|
ソフトマックス層は,入力にソフトマックス関数を適用します。 | |
シグモイド層は,出力が区間(0,1)の範囲に収まるように,シグモイド関数を入力に適用します。 | |
分類層は,互いに排他的なクラスを含むマルチクラス分類問題の交差エントロピー損失を計算します。 | |
回帰層は,回帰問題の半平均二乗誤差損失を計算します。 | |
|
ピクセル分類層は,各イメージピクセルまたはボクセルのカテゴリカルラベルを提供します。 |
|
骰子ピクセル分類層は,一般化骰子損失を使用して,各イメージピクセルまたはボクセルのカテゴリカルラベルを提供します。 |
|
焦点損失層は,焦点損失を使用してオブジェクトのクラスを予測します。 |
|
領域提案ネットワーク(RPN)ソフトマックス層は,入力にソフトマックス活性化関数を適用します。快R-CNNオブジェクト検出ネットワークを作成するには,この層を使用します。 |
|
領域提案ネットワーク(RPN)分類層は,交差エントロピー損失関数を使用して,イメージ領域を”“オブジェクトまたは“背景”として分類します。快R-CNNオブジェクト検出ネットワークを作成するには,この層を使用します。 |
|
ボックス回帰層は,スムーズL1損失関数を使用して,境界ボックスの位置を調整します。快R-CNNオブジェクトまたは更快R-CNNオブジェクト検出ネットワークを作成するには,この層を使用します。 |
|
重み付き分類層は,分類問題の重み付き交差エントロピー損失を計算します。 |
|
特沃斯基ピクセル分類層は,Tversky損失を使用して,各イメージピクセルまたはボクセルのカテゴリカルラベルを提供します。 |
|
分類SSE層は,分類問題の残差平方和損失を計算します。 |
|
回帰美層は,回帰問題の平均絶対誤差損失を計算します。 |
trainingOptions
|trainNetwork
|ディープネットワークデザイナー