主要内容

transposedConv2dLayer

转置的2-D卷积层

描述

一个转置的二维卷积层上采样特征映射。

这一层有时被错误地称为“反褶积”或“反褶积”层。这一层是卷积的转置,不执行反卷积。

= transposedConv2dLayer (过滤numfilters.返回转置的2-D卷积层并设置过滤numfilters.属性。

例子

= transposedConv2dLayer (过滤numfilters.名称,价值返回一个转置的2d卷积层,并使用一个或多个名称-值对参数指定其他选项。

例子

全部收缩

用96个过滤器创建一个转置的卷积层,每个过滤器具有高度和宽度为11.在水平和垂直方向上使用4的步幅。

96年层= transposedConv2dLayer(11日'走吧'4);

输入参数

全部收缩

过滤器的高度和宽度,指定为两个正整数的向量[H W],在那里H是高度和W.是宽度。FilterSize定义输入中神经元连接到的局部区域的大小。

如果你设置FilterSize使用输入参数,然后可以指定FilterSize作为标量以对两个尺寸使用相同的值。

例子:[5 5]指定高度5和宽度5的过滤器。

过滤器的数量,指定为正整数。这个数字与神经元层中连接输入区域的神经元数量相对应。这个参数决定了卷积层输出的通道(特征映射)的数量。

例子:96

名称值对参数

指定可选的逗号分离对名称,价值参数。的名字是参数名称和价值为对应值。的名字必须出现在引号内。您可以以任何顺序指定多个名称和值对参数Name1, Value1,…,的家

例子:'裁剪',1
转置卷积

全部收缩

输入的上采样因子,指定为以下之一:

  • 两个正整数组成的向量[b],在那里一种是垂直跨步和B.是水平步幅。

  • 一个正整数,对应于垂直和水平步幅。

例子:“步”,[2 1]

输出尺寸缩减,指定为下列之一:

  • “相同”-设置裁剪,使输出大小等于输入。*步幅,在那里inputSize是图层输入的高度和宽度。如果你设置“种植”选项“相同”,然后软件会自动设置CroppingMode层的财产“相同”

    如果可能的话,该软件会从顶部和底部,以及左边和右边进行等量的修剪。如果垂直的作物数量有一个奇数值,那么软件从底部额外修剪一行。如果水平的作物数量有一个奇数值,那么软件会从右边额外修剪一列。

  • 一个正整数-从所有的边裁剪指定的数据量。

  • 非负整数的矢量[b]- 庄稼一种从上到下B.从左右。

  • 一个向量[t b l r]- 庄稼T.B.L.R.从输入的顶部,底部,左侧和右侧。

如果你设置“种植”选项为数值,则软件自动设置CroppingMode层的财产“手动”

例子:(1 2)

每个滤波器的通道数,指定为“NumChannels.' 和'汽车'或者一个正整数。

这个参数必须等于这个卷积层的输入信道数。例如,如果输入是彩色图像,那么输入的通道数必须为3。如果当前层之前卷积层的滤波器数量是16,那么该层的通道数量必须是16。

参数和初始化

全部收缩

函数初始化权值,指定为以下其中之一:

  • 'glorot'- 使用Glorot Initializer初始化权重[1](也称为Xavier Initializer)。Glorot Initializer从均匀分布的独立样本,零均匀和方差2 /(numin + numout),在那里numin = filtersize(1)* filtersize(2)* numchannelsnumout = filtersize(1)* filtersize(2)* numfilters,NumChannels.为输入通道的数量。

  • '他'- 使用初始化程序初始化权重[2].初始化器的样本来自均值和方差为零的正态分布2 / numin.,在那里numin = filtersize(1)* filtersize(2)* numchannelsNumChannels.为输入通道的数量。

  • “narrow-normal”-从均值为零、标准差为0.01的正态分布中独立抽样来初始化权重。

  • 'zeros'- 用零初始化权重。

  • “的”- 用初始化权重。

  • 函数句柄——用自定义函数初始化权重。如果指定函数句柄,则函数必须是表单权重= func(sz),在那里深圳是重量的大小。例如,请参见指定自定义权重初始化函数

属性时,层才初始化权重重量财产是空的。

数据类型:字符|字符串|function_handle.

函数初始化偏差,指定为以下任意一个:

  • 'zeros'-用零初始化偏差。

  • “的”-用1初始化偏差。

  • “narrow-normal”-从均值为零、标准差为0.01的正态分布中独立抽样来初始化偏差。

  • 功能句柄 - 使用自定义功能初始化偏差。如果指定函数句柄,则函数必须是表单偏见= func(深圳),在那里深圳是偏差的大小。

该图层仅初始化偏差时偏见财产是空的。

数据类型:字符|字符串|function_handle.

卷积层的层权重,指定为数字数组。

层权值是可学习的参数。属性可以直接指定权重的初始值重量属性的层。当训练一个网络时,如果重量属性为非空,则Trainnetwork.使用重量属性作为初始值。如果是重量财产是空的,然后Trainnetwork.属性指定的初始化式掌控度属性的层。

在培训时间,重量是一个filterSize (1)——- - - - - -filterSize (2)——- - - - - -numfilters.——- - - - - -NumChannels.大批。

数据类型:|

层偏差为卷积层,指定为数字数组。

层偏置是可学习参数。培训网络时,如果偏见非空的,那么Trainnetwork.使用偏见属性作为初始值。如果偏见是空的,然后Trainnetwork.使用指定的初始化式BiasInitializer

在培训时间,偏见是一个1-by-1-by——numfilters.大批。

数据类型:|

学习速度和正规化

全部收缩

权值的学习率因子,指定为非负标量。

该软件将这个因子乘以全局学习率,以确定这一层权重的学习率。例如,如果WeightLearnRateFactor是2,那么该层中权重的学习率是当前全球学习率的两倍。该软件根据指定的设置确定全局学习速率trainingOptions功能。

例子:2

偏差的学习率因子,指定为非负标量。

软件将这个因子乘以全局学习率,以确定这一层偏差的学习率。例如,如果Biaslearnratefactor.是2,那么层中偏差的学习率是当前全球学习率的两倍。该软件根据指定的设置确定全局学习速率trainingOptions功能。

例子:2

权值的L2正则化因子,指定为非负标量。

软件将此因子乘以全局L2正则化因子来确定该层中重量的L2正则化。例如,如果WeightL2Factor为2,则该层权值的L2正则化是全局L2正则化因子的两倍。您可以使用使用的全局L2正则化因子指定trainingOptions功能。

例子:2

偏差的L2正则化因子,指定为非负标量。

该软件将此因子乘以全局L2正则化因子来确定该层中偏差的L2正则化。例如,如果biasl2factor.是2,那么该层中偏差的L2正则化是全局L2正则化因子的两倍。您可以使用使用的全局L2正则化因子指定trainingOptions功能。

例子:2

全部收缩

层名,指定为字符向量或字符串标量。若要在层图中包含层,必须指定非空的唯一层名。如果你用层和的名字被设置为'',然后软件会自动为培训时间分配给图层的名称。

数据类型:字符|字符串

输出参数

全部收缩

转置的二维卷积层,返回为TransposedConvolution2DLayer对象。

兼容性的考虑

全部展开

R2019A中的行为发生了变化

参考文献

[1]格洛洛,泽维尔,还有约书亚·本吉奥。理解训练深度前馈神经网络的困难在第十三届国际人工智能和统计会议论文集,249-356。撒丁岛,意大利:2010年亚斯特哈。

[2]他,Kaiming,湘雅张,少清任,剑孙。“深入研究整流器:超越了在想象集分类上的人力水平表现。”在2015年IEEE计算机愿景会议的诉讼程序, 1026 - 1034。计算机视觉,2015。

扩展功能

GPU的代码生成
使用GPU Coder™为NVIDIA®GPU生成CUDA®代码。

在R2017B中介绍