主要内容

reluLayer

修正线性单元(ReLU)层

描述

ReLU层进行阈值操作每个元素的输入,任何小于零的值被设置为零。

这个操作是等价的

f ( x ) = { x , x 0 0 , x < 0

创建

描述

= reluLayer创建一个ReLU层。

例子

= reluLayer(“名字”,的名字)创建一个ReLU层和设置可选的的名字使用一个名称-值对财产。例如,reluLayer('名称',' relu1 ')创建一个ReLU层的名字“relu1”

属性

全部展开

图层名称,指定为一个特征向量或字符串标量。为数组输入,trainNetwork,assembleNetwork,layerGraph,dlnetwork函数自动分配名称层的名称

数据类型:字符|字符串

这个属性是只读的。

输入层的数量。这一层只接受一个输入。

数据类型:

这个属性是只读的。

输入层的名称。这一层只接受一个输入。

数据类型:细胞

这个属性是只读的。

输出层的数量。这一层只有一个输出。

数据类型:

这个属性是只读的。

输出层的名称。这一层只有一个输出。

数据类型:细胞

例子

全部折叠

创建一个ReLU层的名称“relu1”

层= reluLayer (“名字”,“relu1”)
层= ReLULayer属性:名称:“relu1”

在一个包括ReLU层数组中。

层= [imageInputLayer([1] 28日28日)convolution2dLayer (5、20) reluLayer maxPooling2dLayer (2“步”,2)fullyConnectedLayer (10) softmaxLayer classificationLayer]
层= 7 x1层与层:数组1”的形象输入28 x28x1图像zerocenter正常化2”二维卷积20 5 x5旋转步[1]和填充[0 0 0 0]3”ReLU ReLU 4”二维最大池2 x2马克斯池步(2 - 2)和填充[0 0 0 0]5“完全连接10完全连接层6”Softmax Softmax crossentropyex 7”分类输出

更多关于

全部展开

引用

[1]Nair Vinod和杰弗里·e·辛顿。“修正线性单位改善限制玻耳兹曼机。”In学报》第27届国际会议上机器学习(ICML-10),807 - 814页。2010年。

扩展功能

C / c++代码生成
生成C和c++代码使用MATLAB®编码器™。

GPU的代码生成
生成NVIDIA的CUDA®代码®GPU使用GPU编码器™。

版本历史

介绍了R2016a