leakyrelu
应用泄漏整流线性单元激活
描述
泄漏校正线性单元(ReLU)激活操作执行非线性阈值操作,其中任何小于零的输入值乘以一个固定的比例因子。
这个操作相当于
请注意
该函数将泄漏的ReLU操作应用于<一个href="//www.tatmou.com/ch/ch/ch/help/deeplearning/ref/dlarray.html">dlarray
数据。如果您想在<一个href="//www.tatmou.com/ch/ch/ch/help/deeplearning/ref/nnet.cnn.layergraph.html">layerGraph
对象或<一个href="//www.tatmou.com/ch/ch/ch/help/deeplearning/ref/nnet.cnn.layer.layer.html">层
数组,使用以下图层:
计算输入的泄漏ReLU激活Y
= leakyrelu (<一个href="//www.tatmou.com/ch/ch/help/deeplearning/ref/#mw_c2dfd3c0-23ae-4595-a3b7-987c63934bbb_sep_mw_6f734774-5538-44ff-ad05-7e744f97893a" class="intrnllnk">X
)X
通过应用阈值操作。中的所有值X
小于零的值乘以默认的比例因子0.01
.
指定泄漏的ReLU操作的比例因子。Y
= leakyrelu (<一个href="//www.tatmou.com/ch/ch/help/deeplearning/ref/#mw_c2dfd3c0-23ae-4595-a3b7-987c63934bbb_sep_mw_6f734774-5538-44ff-ad05-7e744f97893a" class="intrnllnk">X
,<一个href="//www.tatmou.com/ch/ch/help/deeplearning/ref/#mw_e074da10-6b8b-40f6-809c-f95d7102f449" class="intrnllnk">scaleFactor
)
例子
输入参数
输出参数
扩展功能
版本历史
R2019b引入
另请参阅
dlarray
|<年代pan itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">dlconv
|<年代pan itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">batchnorm
|<年代pan itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">线性整流函数(Rectified Linear Unit)
|<年代pan itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">gelu
|<年代pan itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">dlgradient
|<年代pan itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">dlfeval