漏整流线性单元(ReLU)层
一个泄漏的ReLU层执行一个阈值操作,其中任何小于零的输入值乘以一个固定标量。
这个操作相当于:
返回一个泄漏的ReLU层。层
= leakyReluLayer
返回一个泄漏的ReLU层,其标量乘法器用于负输入等于层
= leakyReluLayer (规模
)规模
.
“名称”,层
= leakyReluLayer (<年代pan class="argument_placeholder">___的名字
)返回一个泄漏的ReLU层,并设置可选参数<一个href="//www.tatmou.com/help/deeplearning/ref/nnet.cnn.layer.leakyrelulayer.html" class="intrnllnk">的名字
财产。
Maas、Andrew L.、Awni Y. Hannun和Andrew Y. Ng。“整流非线性改进神经网络声学模型。”在Proc。ICML,第30卷,第2期1.2013.
clippedReluLayer
|<年代pan itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">reluLayer
|<年代pan itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">swishLayer
|<年代pan itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">trainNetwork