主要内容

eluLayer

指数线性单位(ELU)层

描述

一个ELU激活层在正输入上执行同一性操作,在负输入上执行指数非线性。

该层执行以下操作:

f x x x 0 α (exp ( x ) - 1) x < 0

的默认值α是1。指定值为α为图层设置α财产。

创建

描述

= eluLayer创建一个ELU层。

= eluLayer (α创建一个ELU层并指定α财产。

例子

= eluLayer (___“名称”,的名字另外设置可选的的名字属性使用前面的任何语法。例如,eluLayer('名称',' elu1 ')创建一个名称为ELU的图层“elu1”

属性

全部展开

ELU

非线性参数α,指定为数字标量。ELU层输出的最小值为在负输入趋于0处的斜率是α

层名,指定为字符向量或字符串标量。为数组输入,trainNetworkassembleNetworklayerGraph,dlnetwork函数自动为层分配名称的名字设置为

数据类型:字符|字符串

此属性是只读的。

层的输入数。这一层只接受单个输入。

数据类型:

此属性是只读的。

输入层名。这一层只接受单个输入。

数据类型:细胞

此属性是只读的。

层输出的数量。这一层只有一个输出。

数据类型:

此属性是只读的。

输出层的名称。这一层只有一个输出。

数据类型:细胞

例子

全部折叠

创建一个具有名称的指数线性单位(ELU)层“elu1”非线性参数的默认值为1α

层= eluLayer (“名字”“elu1”
layer = ELULayer with properties: Name: ' el1 ' Alpha: 1 Learnable Parameters无属性。状态参数无属性。显示所有属性

包含一个ELU层在数组中。

layers = [imageInputLayer([28 28 1])卷积2dlayer (3,16) batchNormalizationLayer eluLayer maxPooling2dLayer(2, 16)“步”,2) convolution2dLayer(3,32) batchNormalizationLayer eluLayer fulllyconnectedlayer (10) softmaxLayer classificationLayer]
图层数组:1”的形象输入28 x28x1图像zerocenter正常化2”卷积16 3 x3的隆起与步幅[1]和填充[0 0 0 0]3“批量标准化批量标准化4“ELU ELUα1 5”麦克斯池2 x2马克斯池步(2 - 2)和填充[0 0 0 0]6”卷积32 3 x3[1]和隆起与进步padding [0 0 0 0] 7 " Batch Normalization Batch Normalization 8 " ELU ELU with Alpha 1 9 " full Connected 10 Fully Connected layer 10 " Softmax Softmax 11 " Classification Output crossentropyex . txt . txt . txt

参考文献

[1] Clevert, Djork-Arné, Thomas Unterthiner和Sepp Hochreiter。“通过指数线性单元(ELUs)快速准确的深度网络学习。”arXiv预印本arXiv: 1511.07289(2015)。

扩展功能

C / c++代码生成
使用MATLAB®Coder™生成C和c++代码。

GPU的代码生成
使用GPU Coder™为NVIDIA®GPU生成CUDA®代码。

介绍了R2019a