이번역페이지는최신내용을담고있지않습니다。최신내용을영문으로보려면여기를클릭하십시오。
漏水的ReLU(修正线性单元)계층
漏水的ReLU계층은0보다작은모든입력값에고정된스칼라를곱하는임계값연산을수행합니다。
이연산은다음과동일합니다。
는漏ReLU계층을반환합니다。层
= leakyReluLayer
은음의입력값에대한스칼라승수가层
= leakyReluLayer (规模
)规模
인漏ReLU계층을반환합니다。
“名称”,层
= leakyReluLayer (<年代pan class="argument_placeholder">___的名字
)은漏ReLU계층을반환하고선택적속성인<一个href="//www.tatmou.com/kr/help/deeplearning/ref/nnet.cnn.layer.leakyrelulayer.html" class="intrnllnk">的名字
을설정합니다。
Maas、Andrew L.、Awni Y. Hannun和Andrew Y. Ng。“整流非线性改进神经网络声学模型。”刊于《ICML》,第30卷,第2期。1.2013.
trainNetwork
|<年代pan itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">reluLayer
|<年代pan itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">clippedReluLayer
|<年代pan itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">swishLayer