文档帮助中心文档
线性单元(ReLU)层
ReLU层对输入的每个元素执行一个阈值操作,其中任何小于零的值都被设置为零。
这个操作相当于
f ( x ) = { x , x ≥ 0 0 , x < 0 .
层= reluLayer
层= reluLayer(“名字”,名称)
层= reluLayer创建一个ReLU层。
层
例子
层= reluLayer(“名字”,的名字)创建一个ReLU层,并设置可选参数的名字属性使用名称-值对。例如,reluLayer('名称',' relu1 ')创建一个名称为ReLU的图层“relu1”.
层= reluLayer(“名字”,的名字)
的名字
reluLayer('名称',' relu1 ')
“relu1”
全部展开
''
层名,指定为字符向量或字符串标量。为层数组输入,trainNetwork,assembleNetwork,layerGraph,dlnetwork函数自动为层分配名称的名字设置为''.
trainNetwork
assembleNetwork
layerGraph
dlnetwork
数据类型:字符|字符串
字符
字符串
NumInputs
1
此属性是只读的。
层的输入数。这一层只接受单个输入。
数据类型:双
双
InputNames
{'在'}
输入层名。这一层只接受单个输入。
数据类型:细胞
细胞
NumOutputs
层输出的数量。这一层只有一个输出。
OutputNames
{“出”}
输出层的名称。这一层只有一个输出。
全部折叠
创建一个名称为ReLU的图层“relu1”.
层= reluLayer (“名字”,“relu1”)
属性:Name: 'relu1'
包含一个ReLU层层数组中。
层= [...imageInputLayer([28 28 1])卷积2dlayer (5,20) reluLayer maxPooling2dLayer(2, 20)“步”,2) fulllyconnectedlayer (10) softmaxLayer classifier]
图层数组:1”的形象输入28 x28x1图像zerocenter正常化2”卷积20 5 x5旋转步[1]和填充[0 0 0 0]3”ReLU ReLU 4”马克斯池2 x2马克斯池步(2 - 2)和填充[0 0 0 0]5“完全连接10完全连接层6”Softmax Softmax crossentropyex 7”分类输出
卷积和批处理归一化层后面通常跟着一个非线性激活函数,如由ReLU层指定的整流线性单元(ReLU)。ReLU层对每个元素执行一个阈值操作,其中任何小于0的输入值都被设为0,即:
ReLU层不会改变其输入的大小。
还有其他的非线性激活层执行不同的操作,可以提高某些应用的网络精度。有关激活层的列表,请参见激活层.
Nair, Vinod和Geoffrey E. Hinton。修正线性单元改进受限玻尔兹曼机在第27届机器学习国际会议论文集(ICML-10), 807 - 814页。2010.
trainNetwork|batchNormalizationLayer|leakyReluLayer|clippedReluLayer|swishLayer|深层网络设计师
batchNormalizationLayer
leakyReluLayer
clippedReluLayer
swishLayer
您有这个示例的修改版本。您想打开这个示例与您的编辑吗?
你点击一个链接对应于这个MATLAB命令:
通过在MATLAB命令窗口中输入命令来运行命令。Web浏览器不支持MATLAB命令。金宝app
选择一个网站,在那里获得翻译的内容,并看到当地的活动和优惠。根据您的位置,我们建议您选择:.
你也可以从以下列表中选择一个网站:
选择中国网站(中文或英文)以获得最佳网站性能。其他MathWorks国家站点没有针对您所在位置的访问进行优化。
与当地办事处联系