文档帮助中心文档
指数线性单元(ELU)层
ELU激活层对正输入执行恒等运算,对负输入执行指数非线性。
该层执行以下操作:
f ( x ) = { x , x ≥ 0 α (exp ( x ) - 1) , x < 0
的默认值α是1。指定值为α为该层设置α财产。
α
层= elullayer
图层= eluLayer(alpha)
层= elullayer (___“名字”,名称)
层= eluLayer创建一个ELU层。
层= eluLayer
层
层= eluLayer (α)创建一个ELU层并指定α财产。
层= eluLayer (α)
例子
层= eluLayer (___“名称”,的名字)额外设置可选的的名字属性。例如,eluLayer('名称',' elu1 ')创建一个名称为ELU的层“elu1”.
层= eluLayer (___“名称”,的名字)
的名字
eluLayer('名称',' elu1 ')
“elu1”
全部展开
1
非线性参数α,指定为数值标量。ELU层输出的最小值等于-α负输入趋近于0时的斜率是α.
”
层名,指定为字符向量或字符串标量。为层数组输入时,trainNetwork,assembleNetwork,layerGraph,dlnetwork函数自动为层分配名称的名字设置为”.
trainNetwork
assembleNetwork
layerGraph
dlnetwork
数据类型:字符|字符串
字符
字符串
NumInputs
此属性是只读的。
该层的输入数量。该层只接受单个输入。
数据类型:双
双
InputNames
{'在'}
输入层的名称。该层只接受单个输入。
数据类型:细胞
细胞
NumOutputs
层的输出数量。这个图层只有一个输出。
OutputNames
{“出”}
输出层的名称。这个图层只有一个输出。
全部折叠
创建一个指数线性单元(ELU)层“elu1”非线性参数的默认值为1α.
层= elullayer (“名字”,“elu1”)
Name: 'elu1' Alpha: 1 Learnable Parameters无属性。状态参数无属性。显示所有属性
中包含一个ELU层层数组中。
图层= [imageInputLayer([28 28 1]) convolution2dLayer(3,16) batchNormalizationLayer eluLayer maxPooling2dLayer(2,“步”,2) convolution2dLayer(3,32) batchNormalizationLayer eluLayer fullyConnectedLayer(10) softmaxLayer classificationLayer]
带有图层的图层数组:1”的形象输入28 x28x1图像zerocenter正常化2”卷积16 3 x3的隆起与步幅[1]和填充[0 0 0 0]3“批量标准化批量标准化4“ELU ELUα1 5”麦克斯池2 x2马克斯池步(2 - 2)和填充[0 0 0 0]6”卷积32 3 x3的隆起与步幅[1]和填充[0 0 0 0]7“批量标准化批量标准化8”ELU ELUα1 9“完全连接10完全连接层”Softmax Softmax11”Classification Output crossentropyex
[1] Clevert, Djork-Arné, Thomas Unterthiner和Sepp Hochreiter。“通过指数线性单元(elu)快速准确的深度网络学习。”arXiv预印arXiv:1511.07289(2015)。
trainNetwork|batchNormalizationLayer|leakyReluLayer|clippedReluLayer|reluLayer|swishLayer
batchNormalizationLayer
leakyReluLayer
clippedReluLayer
reluLayer
swishLayer
この例の変更されたバ,ジョンがあります.編集された方の例を開きますか?
次のmatlabコマンドに対応するリンクがクリックされました。
コマンドをmatlabコマンドウィンドウに入力して実行してください。Webブラウザ,はMATLABコマンドをサポ,トしていません。
选择一个网站,在可用的地方获得翻译的内容,并查看当地的活动和优惠。根据您所在的位置,我们建议您选择:.
您也可以从以下列表中选择一个网站:
选择中国站点(中文或英文)以获得最佳站点性能。其他MathWorks国家站点没有针对您所在位置的访问进行优化。
联系当地办事处