主要内容

transposedConv3dLayer

转置的三维卷积层

描述

转置的三维卷积层对三维特征图进行采样。

这一层有时被错误地称为“反褶积”或“反褶积”层。这一层是卷积的转置,不执行反卷积。

= transposedConv3dLayer (filterSizenumFilters返回转置的3-D卷积层,并设置FilterSizeNumFilters属性。

例子

= transposedConv3dLayer (filterSizenumFilters名称,值返回转置的3-D卷积层,并使用一个或多个名称-值对参数指定其他选项。

例子

全部折叠

创建一个转置的3-D卷积层,带有32个滤镜,每个滤镜的高度,宽度和深度为11。在水平和垂直方向上使用4步,在深度上使用2步。

32层= transposedConv3dLayer(11日,“步”(4 4 2))
layer = TransposedConvolution3DLayer with properties: Name: " Hyperparameters FilterSize: [11 11 11] NumChannels: 'auto' NumFilters: 32 Stride: [4 4 2] CroppingMode: 'manual' CroppingSize: [2x3 double] Learnable Parameters Weights: [] Bias:[]显示所有属性

输入参数

全部折叠

过滤器的高度、宽度和深度,指定为矢量[w h d]三个正整数,其中h的高度,w是宽度,和d是深度。FilterSize定义输入中神经元连接到的局部区域的大小。

如果你设置FilterSize使用输入参数,就可以指定FilterSize作为标量,对所有三个维度使用相同的值。

例子:(5 5 5)指定高度、宽度和深度为5的过滤器。

过滤器的数量,指定为正整数。这个数字与卷积层中连接输入区域的神经元数量相对应。这个参数决定了卷积层输出的通道(特征映射)的数量。

例子:96

名称-值参数

指定可选的逗号分隔的对名称,值参数。的名字参数名和价值为对应值。的名字必须出现在引号内。可以以任意顺序指定多个名称和值对参数Name1, Value1,…,的家

例子:“裁剪”,1
转置卷积

全部折叠

在三维中遍历输入的步长,指定为向量(a b c)三个正整数,其中一个为垂直步长,b是水平步长,和c是沿深度的步长。在创建图层时,可以指定作为标量,在所有三个方向上使用相同的步长值。

例子:(1 2 3)指定垂直步长为2,水平步长为3,沿深度方向的步长为1。

输出尺寸缩减,指定为下列之一:

  • “相同”-设置裁剪,使输出大小等于inputSize。*步,在那里inputSize是层输入的高度、宽度和深度。如果你设置“种植”选项“相同”,则软件自动设定CroppingMode属性的层“相同”

    如果可能的话,该软件可以从顶部和底部、左边和右边、前面和后面进行等量的修剪。如果垂直的作物数量有一个奇数值,那么软件从底部额外修剪一行。如果水平的作物数量有一个奇数值,那么软件会从右边额外修剪一列。如果深度裁剪量有一个奇数值,那么软件从后面裁剪一个额外的平面。

  • 一个正整数-从所有的边裁剪指定的数据量。

  • 非负整数的向量(a b c)——作物一个从上到下,剪短b从左到右,然后剪裁c从前面和后面。

  • 非负整数的矩阵[t l f;b r bk)非负整数的- Croptlfbr汉堡王分别从输入的上、左、前、下、右和后面。

例子:[1 2 2]

每个滤波器的通道数,指定为“NumChannels”,“汽车”或者一个正整数。

这个参数必须等于这个卷积层的输入信道数。例如,如果输入是彩色图像,那么输入的通道数必须为3。如果当前层之前卷积层的滤波器数量是16,那么该层的通道数量必须是16。

参数和初始化

全部折叠

函数初始化权值,指定为以下其中之一:

  • “glorot”-使用gloria初始化器初始化权重[1](也称为Xavier初始化器)。格洛特初始化器从均值和方差均为零的均匀分布中独立抽样2 / (numIn + numOut),在那里numIn = filterSize (1) * filterSize (2) * filterSize (3) * NumChannelsnumOut = filterSize (1) * filterSize (2) * filterSize (3) * numFilters,NumChannels为输入通道的数量。

  • “他”-使用He初始化器初始化权值[2].初始化器的样本来自均值和方差为零的正态分布2 / numIn,在那里numIn = filterSize (1) * filterSize (2) * filterSize (3) * NumChannelsNumChannels为输入通道的数量。

  • “narrow-normal”-从均值为零、标准差为0.01的正态分布中独立抽样来初始化权重。

  • “零”—初始化权值为0。

  • “的”—使用“1”初始化权重。

  • 函数句柄——用自定义函数初始化权重。如果指定函数句柄,则该函数必须是这种形式的重量= func(深圳),在那里深圳是重量的大小。例如,请参见指定自定义权重初始化函数

属性时,层才初始化权重权重属性是空的。

数据类型:字符|字符串|function_handle

函数初始化偏差,指定为以下任意一个:

  • “零”-用零初始化偏差。

  • “的”-用1初始化偏差。

  • “narrow-normal”-从均值为零、标准差为0.01的正态分布中独立抽样来初始化偏差。

  • 函数句柄——用自定义函数初始化偏差。如果指定函数句柄,则该函数必须是这种形式的偏见= func(深圳),在那里深圳是偏差的大小。

该层仅在偏见属性是空的。

数据类型:字符|字符串|function_handle

指定为数字数组的转置卷积层的层权值。

层权值是可学习的参数。属性可以直接指定权重的初始值权重属性的层。当你训练一个网络,如果权重属性为非空,则trainNetwork使用权重属性作为初始值。如果权重属性为空trainNetwork属性指定的初始化式WeightsInitializer属性的层。

在培训时,权重是一个FilterSize (1)——- - - - - -FilterSize (2)——- - - - - -FilterSize (3)——- - - - - -numFilters——- - - - - -NumChannels数组中。

数据类型:|

指定为数字数组的转置卷积层的层偏差。

层偏差是可学习的参数。当你训练一个网络,如果偏见非空的,那么trainNetwork使用偏见属性作为初始值。如果偏见是空的,然后trainNetwork使用指定的初始化式BiasInitializer

在培训时,偏见1-by-1-by-1-by -numFilters数组中。

数据类型:|

学习率和正规化

全部折叠

权值的学习率因子,指定为非负标量。

该软件将这个因子乘以全局学习率,以确定这一层权重的学习率。例如,如果WeightLearnRateFactor2,则该层权重的学习率为当前全局学习率的两倍。该软件根据您指定的设置来确定全局学习率trainingOptions函数。

数据类型:||int8|int16|int32|int64|uint8|uint16|uint32|uint64

偏差的学习率因子,指定为非负标量。

软件将这个因子乘以全局学习率,以确定这一层偏差的学习率。例如,如果BiasLearnRateFactor2,则该层偏差的学习率是当前全局学习率的两倍。该软件根据您指定的设置来确定全局学习率trainingOptions函数。

数据类型:||int8|int16|int32|int64|uint8|uint16|uint32|uint64

l2权值的正则化因子,指定为非负标量。

软件将这个因素乘以全球l2正则化因子的确定l2正则化这一层的权重。例如,如果WeightL2Factor2,那么l2这一层权重的正则化是全局权重的两倍l2正则化因子。您可以指定全局l2正则化因子trainingOptions函数。

数据类型:||int8|int16|int32|int64|uint8|uint16|uint32|uint64

l2偏差的正则化因子,指定为非负标量。

软件将这个因素乘以全球l2正则化因子的确定l2正则化这一层的偏差。例如,如果BiasL2Factor2,那么l2这一层偏见的正规化程度是全球的两倍l2正则化因子。您可以指定全局l2正则化因子trainingOptions函数。

数据类型:||int8|int16|int32|int64|uint8|uint16|uint32|uint64

全部折叠

层名,指定为字符向量或字符串标量。为数组输入,trainNetworkassembleNetworklayerGraph,dlnetwork函数自动为层分配名称的名字设置为''

数据类型:字符|字符串

输出参数

全部折叠

转置的三维卷积层,返回为TransposedConvolution3dLayer对象。

参考文献

[1]格洛洛,泽维尔,还有约书亚·本吉奥。理解训练深度前馈神经网络的困难在第十三届国际人工智能和统计会议论文集, 249 - 356。撒丁岛,意大利:AISTATS, 2010。

何开明,张翔宇,任少青,孙健深入研究整流器:在图像网分类上超越人类水平的表现。在2015 IEEE计算机视觉国际会议论文集, 1026 - 1034。计算机视觉,2015。

介绍了R2019a