整流线性单元(Relu)层据/p>
Relu层对输入的每个元件执行阈值操作,其中小于零的任何值被设置为零。据/span>
此操作相当于据/p>
创建一个Relu层。据/p>
层据/code>= rululayer.据/code>
创建Relu层并设置可选据a href="//www.tatmou.com/help/deeplearning/ref/nnet.cnn.layer.relulayer.html" class="intrnllnk">层据/code>= rululayer('name',据code class="argument">名称据/code>)据/code>
名称据/code>属性使用名称值对。例如,据code class="literal">Rubulayer('姓名','relu1')据/code>创建包含名称的Relu层据code class="literal">“relu1”据/code>。据/p>
[1] Nair,Vinod和Geoffrey E. Hinton。“整流线性单位改善了受限制的Boltzmann机器。”in.据em class="citetitle">第27届机器学习会议(ICML-10)的诉讼程序据/em>, 807 - 814页。2010.据/p>
BatchnormalizationLayer.据/code>
|据span itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">思考据/code>
|据span itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">深网络设计师据/span>|据span itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">漏滤网据/code>
|据span itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">斯威什莱尔据/code>
|据span itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">Trainnetwork.据/code>