主要内容

reluLayer

整流线性单元(ReLU)层

描述

ReLU层对输入的每个元素执行阈值操作,其中小于零的任何值都被设置为零。

这个操作等价于

f x x x 0 0 x < 0

创建

描述

= reluLayer创建一个ReLU层。

例子

= reluLayer(“名字”,名字创建一个ReLU层并设置可选项名字属性使用名称-值对。例如,reluLayer('名称',' relu1 ')创建一个名为ReLU的层“relu1”

属性

全部展开

图层名称,指定为字符向量或字符串标量。为数组输入trainNetworkassembleNetworklayerGraph,dlnetwork函数会自动给有名称的图层分配名称

数据类型:字符|字符串

该属性是只读的。

层的输入数。这一层只接受一个输入。

数据类型:

该属性是只读的。

输入图层的名称。这一层只接受一个输入。

数据类型:细胞

该属性是只读的。

层的输出数。这一层只有一个输出。

数据类型:

该属性是只读的。

输出图层的名称。这一层只有一个输出。

数据类型:细胞

例子

全部折叠

创建一个命名为ReLU的层“relu1”

layer = reluLayer(“名字”“relu1”
layer = ReLULayer with properties: Name: 'relu1'

包含一个ReLU层数组中。

图层= [...imageInputLayer([28 28 1]) convolution2dLayer(5,20) reluLayer maxPooling2dLayer(2,“步”,2) fulllyconnectedlayer (10) softmaxLayer classificationLayer]
layers = 7x1 Layer array with layers: 1 " Image Input 28x28x1图像,'zerocenter'归一化2 " Convolution 20个5x5个卷积,stride[1 1]和padding [0 0 0 0] 3 " ReLU ReLU 4 " Max Pooling 2x2 Max Pooling, stride[2 2]和padding [0 0 0 0] 5 " Fully Connected 10 " Softmax Softmax 7 " Classification Output crossentropyex

更多关于

全部展开

参考文献

[1]nair, Vinod和Geoffrey E. Hinton。“整流线性单元改进了受限玻尔兹曼机器。”在第27届国际机器学习会议论文集(ICML-10),第807-814页。2010.

扩展功能

C/ c++代码生成
使用MATLAB®Coder™生成C和c++代码。

GPU代码生成
使用GPU Coder™为NVIDIA®GPU生成CUDA®代码。

版本历史

在R2016a中引入