泄漏整流线性单元(Relu)层据/p>
泄漏的Relu层执行阈值操作,其中任何输入值小于零的乘以固定标量。据/span>
此操作相当于:据/p>
返回泄漏的Relu层。据/p>
层据/code>=漏滤网据/code>
用标量乘法器返回泄漏的Relu层,用于等于的负输入据Code class="argument">规模据/code>。据/p>
层据/code>=漏滤泡(据Code class="argument">规模据/code>)据/code>
返回泄漏的Relu层并设置可选据一种href="//www.tatmou.com/uk/help/deeplearning/ref/nnet.cnn.layer.leakyrelulayer.html" class="intrnllnk">层据/code>=漏滤泡(据S.pan class="argument_placeholder">___据/span>,'姓名',据Code class="argument">姓名据/code>)据/code>
姓名据/code>财产。据/p>
[1] Maas,Andrew L.,Awni Y. Hannun,以及安德鲁Y. Ng。“整流非线性改善神经网络声学模型。”在据E.m class="citetitle">Proc。ICML.据/em>,卷。30,不。2013年。据/p>
Trainnetwork.据/code>
|据S.pan itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">抵押者据/code>
|据S.pan itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">思考据/code>
|据S.pan itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">斯威什莱尔据/code>