主要内容

eluLayer

指数线性单元(ELU)层

自从R2019a

描述

ELU活化层执行身份操作正输入和一个指数非线性负输入。

层执行以下操作:

f ( x ) = { x , x 0 α (exp ( x )- 1) , x < 0

的默认值α是1。指定的值α通过设置的层α财产。

创建

描述

= eluLayer创建一个ELU层。

= eluLayer (α)创建一个ELU层和指定α财产。

例子

= eluLayer (___“名称”,的名字)另外设置可选的名字财产使用任何以前的语法。例如,eluLayer('名称',' elu1 ')创建一个ELU层的名字“elu1”

属性

全部展开

ELU

非线性参数α,指定为一个数字标量。ELU的输出层的最小值=斜率为负输入接近0α

图层名称,指定为一个特征向量或字符串标量。为数组输入,trainNetwork,assembleNetwork,layerGraph,dlnetwork函数自动分配名称层的名称

数据类型:字符|字符串

这个属性是只读的。

输入层的数量。这一层只接受一个输入。

数据类型:

这个属性是只读的。

输入层的名称。这一层只接受一个输入。

数据类型:细胞

这个属性是只读的。

输出层的数量。这一层只有一个输出。

数据类型:

这个属性是只读的。

输出层的名称。这一层只有一个输出。

数据类型:细胞

例子

全部折叠

创建一个指数线性单元(ELU)层的名字“elu1”和非线性参数的缺省值为1α

层= eluLayer (“名字”,“elu1”)
层= ELULayer属性:名称:‘elu1α:1可学的参数没有属性。状态参数没有属性。显示所有属性

包括一个ELU层中数组中。

层= [imageInputLayer ([28 28 1]) convolution2dLayer (3、16) batchNormalizationLayer eluLayer maxPooling2dLayer (2“步”2)convolution2dLayer (32) batchNormalizationLayer eluLayer fullyConnectedLayer (10) softmaxLayer classificationLayer]
层= 11 x1层与层:数组1”的形象输入28 x28x1图像zerocenter正常化2”二维卷积16 3 x3的隆起与步幅[1]和填充[0 0 0 0]3“批量标准化批量标准化4“ELU ELUα1 5”二维最大池2 x2马克斯池步(2 - 2)和填充[0 0 0 0]6”二维卷积32 3 x3的隆起与步幅[1]和填充[0 0 0 0]7“批量标准化批量标准化8”ELU ELUα1 9“完全连接10完全连接层”Softmax Softmax crossentropyex十一”分类输出

算法

全部展开

引用

[1]Clevert Djork-Arne,托马斯Unterthiner,然而Hochreiter。“快速而准确的深度网络学习指数线性单位(elu)。”arXiv预印本arXiv: 1511.07289(2015)。

扩展功能

C / c++代码生成
生成C和c++代码使用MATLAB®编码器™。

GPU的代码生成
生成NVIDIA的CUDA®代码®GPU使用GPU编码器™。

版本历史

介绍了R2019a