leakyReluLayer
漏水的解决线性单元(ReLU)层
描述
漏水的ReLU层执行一个阈值操作,任何输入值小于零乘以一个固定的标量。
这个操作是等价的:
创建
语法
描述
返回一个漏水的ReLU层。层
= leakyReluLayer
返回一个漏水的ReLU层-输入等于一个标量乘法器层
= leakyReluLayer (规模
)规模
。
“名称”,层
= leakyReluLayer (<年代pan class="argument_placeholder">___的名字
)返回一个漏水的ReLU层和设置可选的<一个href="//www.tatmou.com/ch/ch/ch/help/deeplearning/ref/nnet.cnn.layer.leakyrelulayer.html" class="intrnllnk">的名字
财产。
属性
例子
引用
[1]马斯河,安德鲁·L。,Awni Y. Hannun, and Andrew Y. Ng. "Rectifier nonlinearities improve neural network acoustic models." InProc。ICML,30卷,不。1。2013年。
扩展功能
版本历史
介绍了R2017b
另请参阅
trainNetwork
|<年代pan itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">reluLayer
|<年代pan itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">clippedReluLayer
|<年代pan itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">swishLayer