このページの翻訳は最新ではありません。ここをクリックして,英語の最新版を参照してください。
漏洩(漏)正規化線形ユニット層(ReLU)
漏水的ReLU層は,しきい値処理を実行し,入力値がゼロよりも小さい場合は固定のスカラーによって乗算します。
この処理は次の式と同等です。
は,漏ReLU層を返します。层
= leakyReluLayer
は,負の入力のスカラー乗数が层
= leakyReluLayer (规模
)规模
に等しい,漏ReLU層を返します。
“名称”,层
= leakyReluLayer (<年代pan class="argument_placeholder">___的名字
)は,漏ReLU層を返し,オプションの<一个href="//www.tatmou.com/jp/jp/help/deeplearning/ref/nnet.cnn.layer.leakyrelulayer.html" class="intrnllnk">的名字
プロパティを設定します。
Maas、Andrew L.、Awni Y. Hannun和Andrew Y. Ng。“整流非线性改进神经网络声学模型。”刊于《ICML》,第30卷,第2期。1.2013.
trainNetwork
|<年代pan itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">reluLayer
|<年代pan itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">clippedReluLayer
|<年代pan itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">swishLayer