主要内容

convolution1dLayer

一维卷积层

    描述

    一维卷积层将滑动卷积滤波器应用于一维输入。该层通过沿输入移动滤波器并计算权重和输入的点积,然后添加偏置项来卷积输入。

    图层卷积的尺寸取决于图层输入:

    • 对于时间序列和矢量序列输入(与通道、观测值和时间步骤对应的三维数据),该层在时间维度上进行卷积。

    • 对于一维图像输入(具有与空间像素、通道和观测值相对应的三维数据),层在空间维度上卷积。

    • 对于一维图像序列输入(具有与空间像素、通道、观测值和时间步长相对应的四个维度的数据),层在空间维度上卷积。

    创造

    描述

    实例

    =卷积层(过滤,微粒过滤器)创建一维卷积层并设置FilterSizeNumFilters属性。

    =卷积层(过滤,微粒过滤器,名称=值)还设置可选的大步走,DilationFactor,数字通道,参数和初始化,学习率与正则化,名称使用一个或多个名称值参数的属性。要指定输入填充,请使用衬料名称值参数。例如卷积1层(11,96,填充=1)创建具有96个大小为11的过滤器的一维卷积层,并在输入层的左侧和右侧指定大小为1的填充。

    输入参数

    全部展开

    名称-值对参数

    指定可选参数对为名称1=Value1,…,名称n=ValueN哪里名称是参数名和价值是对应的值。名称值参数必须出现在其他参数之后,但对的顺序无关紧要。

    例子:卷积1层(11,96,填充=1)创建具有96个大小为11的过滤器的一维卷积层,并在输入层的左侧和右侧指定大小为1的填充。

    要应用于输入的填充,指定为以下内容之一:

    • “相同”-应用填充,使输出大小为ceil(输入大小/步幅)哪里输入大小是输入的长度。什么时候大步走1.,输出与输入大小相同。

    • “因果关系”-对输入应用左填充,等于(FilterSize - 1) .*膨胀因子. 什么时候大步走1.,输出与输入大小相同。

    • 非负整数深圳-添加大小的填充深圳到输入的两端。

    • 矢量[左/右]非负整数的填充-添加大小的填充L向左和向右R在输入的右侧。

    例子:填充=[2 1]在输入的左边添加大小为2的填充,在右边添加大小为1的填充。

    数据类型:|双重的|int8|int16|int32|int64|uint8|uint16|uint32|uint64|烧焦|一串

    性质

    全部展开

    卷积

    此属性是只读的。

    筛选器的宽度,指定为正整数。

    数据类型:|双重的|int8|int16|int32|int64|uint8|uint16|uint32|uint64

    此属性是只读的。

    筛选器数,指定为正整数。这个数字对应于卷积层中连接到输入中相同区域的神经元数量。此参数确定卷积层输出中的通道数(特征贴图)。

    数据类型:|双重的|int8|int16|int32|int64|uint8|uint16|uint32|uint64

    遍历输入的步长,指定为正整数。

    数据类型:|双重的|int8|int16|int32|int64|uint8|uint16|uint32|uint64

    扩张卷积(也称为萎缩卷积)的因子,指定为正整数。

    使用扩大的卷积增加该层的感受野(该层可以看到的输入区域),而不增加参数或计算的数量。

    该层通过在每个过滤器元素之间插入零来扩展过滤器。膨胀因子决定了采样输入的步长,或者等效地,滤波器的上采样因子。它对应的有效过滤器尺寸为*膨胀因子+ 1. 例如,膨胀因子为的1×3滤波器2.等效于元素之间带零的1×5滤波器。

    数据类型:|双重的|int8|int16|int32|int64|uint8|uint16|uint32|uint64

    应用于输入每一侧的填充大小,指定为向量[左/右]两个非负整数,其中L填充是否应用于左侧和R是否将填充应用于右侧。

    创建图层时,请使用衬料name-value参数指定填充大小。

    数据类型:双重的

    此属性是只读的。

    方法来确定填充大小,指定为以下内容之一:

    • “手动”–使用指定的整数或向量填充衬料.

    • “相同”-应用填充,使输出大小为装天花板(inputSize /步)哪里输入大小是输入的长度。什么时候大步走1.,输出与输入相同。

    • “因果关系”–使用临时填充物。用padding size填充输入的左侧(FilterSize - 1) .*膨胀因子.

    要指定图层填充,请使用衬料名称值参数。

    数据类型:烧焦

    此属性是只读的。

    填充数据的值,指定为以下值之一:

    填充值 描述 实例
    标量 用指定的标量值填充。

    [ 3. 1. 4. ] [ 0 0 3. 1. 4. 0 0 ]

    “对称包含边” 使用输入的镜像值(包括边值)填充。

    [ 3. 1. 3. ] [ 1. 3. 3. 1. 4. 4. 1. ]

    “symmetric-exclude-edge” 使用镜像输入值(不包括边值)的Pad。

    [ 3. 1. 4. ] [ 4. 1. 3. 1. 4. 1. 3. ]

    “复制” 使用输入的重复边界元素填充。

    [ 3. 1. 3. ] [ 3. 3. 3. 1. 4. 4. 4. ]

    数据类型:|双重的|int8|int16|int32|int64|uint8|uint16|uint32|uint64|烧焦|一串

    此属性是只读的。

    每个滤波器的通道数,指定为“自动”或正整数。

    如果数字通道“自动”,则软件会自动确定训练时的通道数。

    数据类型:|双重的|int8|int16|int32|int64|uint8|uint16|uint32|uint64|烧焦|一串

    参数和初始化

    函数初始化权重,指定为以下值之一:

    • “格洛特”–使用Glorot初始值设定项初始化权重[1](也称为Xavier初始值设定项)。Glorot初始值设定项从均匀分布中独立采样,平均值为零,方差为2/(单位:分钟+单位:分钟)哪里numIn = FilterSize * NumChannelsnumOut=FilterSize*NumFilters.

    • “他”–使用He初始值设定项初始化权重[2]. He初始值设定项从均值和方差为零的正态分布采样2/努明哪里numIn = FilterSize * NumChannels.

    • “narrow-normal”-通过从均值为0、标准差为0.01的正态分布独立抽样来初始化权重。

    • “零”—初始化权值为0。

    • “一个人”–使用1初始化权重。

    • 函数句柄——用自定义函数初始化权重。如果指定函数句柄,则该函数必须是这种形式的权重=func(sz)哪里深圳是权重的大小。有关示例,请参见指定自定义权重初始化函数.

    属性时,层才初始化权重砝码属性为空。

    数据类型:烧焦|一串|功能手柄

    函数初始化偏差,指定为以下选项之一:

    • “零”–用零初始化偏差。

    • “一个人”-用1初始化偏差。

    • “narrow-normal”–通过从平均值为零、标准偏差为0.01的正态分布中独立取样来初始化偏差。

    • 函数句柄——用自定义函数初始化偏差。如果指定函数句柄,则该函数必须是这种形式的偏见= func(深圳)哪里深圳是偏差的大小。

    该层仅在以下情况下初始化偏移:偏见属性为空。

    数据类型:烧焦|一串|功能手柄

    卷积层的层权重,指定为数字数组。

    层权值是可学习的参数。属性可以直接指定权重的初始值砝码层的属性。培训网络时,如果砝码属性为非空,则列车网络使用砝码属性作为初始值。如果砝码属性为空,则列车网络属性指定的初始化式增重剂属性的层。

    训练时,,砝码是一个FilterSize-借-数字通道-借-NumFilters大堆

    数据类型:|双重的

    卷积层的层偏差,指定为数字数组。

    层偏差是可学习的参数。当您培训网络时,如果偏见那么,它是非空的列车网络使用偏见属性作为初始值。如果偏见是空的,然后列车网络使用指定的初始化式BiasInitializer.

    训练时,,偏见这是一张一乘的票-NumFilters大堆

    数据类型:|双重的

    学习率与正则化

    权值的学习率因子,指定为非负标量。

    软件将该系数乘以全局学习率,以确定该层中权重的学习率。例如,如果加权比率因子2.,则该层中权重的学习速率是当前全局学习速率的两倍。软件根据使用指定的设置确定全局学习速率trainingOptions作用

    数据类型:|双重的|int8|int16|int32|int64|uint8|uint16|uint32|uint64

    偏差的学习率因子,指定为非负标量。

    软件将这个因子乘以全局学习率,以确定这一层偏差的学习率。例如,如果双线性学习因子2.,则层中偏差的学习速率是当前全局学习速率的两倍。软件根据使用指定的设置确定全局学习速率trainingOptions作用

    数据类型:|双重的|int8|int16|int32|int64|uint8|uint16|uint32|uint64

    L2.权值的正则化因子,指定为非负标量。

    软件将这个因素乘以全球L2.正则化因子,用于确定L2.此层中权重的正则化。例如,如果WeightL2Factor2.,那么L2.该层中权重的正则化是全局权重的两倍L2.正则化因子。您可以指定全局变量L2.正则化因子trainingOptions作用

    数据类型:|双重的|int8|int16|int32|int64|uint8|uint16|uint32|uint64

    L2.偏差的正则化因子,指定为非负标量。

    软件将这个因素乘以全球L2.正则化因子,用于确定L2.此层中偏差的正则化。例如,如果双SL2因子2.,那么L2.该层中偏差的正则化是全局的两倍L2.正则化因子。您可以指定全局变量L2.正则化因子trainingOptions作用

    数据类型:|双重的|int8|int16|int32|int64|uint8|uint16|uint32|uint64

    图层名称,指定为字符向量或字符串标量。对于数组输入列车网络,装配网络,layerGraph,数据链路网络函数会自动将名称指定给具有名称着手''.

    数据类型:烧焦|一串

    此属性是只读的。

    层的输入数。该层仅接受单个输入。

    数据类型:双重的

    此属性是只读的。

    输入层名。这一层只接受单个输入。

    数据类型:细胞

    此属性是只读的。

    层的输出数。该层只有一个输出。

    数据类型:双重的

    此属性是只读的。

    输出层的名称。这一层只有一个输出。

    数据类型:细胞

    例子

    全部崩溃

    创建一个1-D卷积层,96个宽度为11的滤镜。

    层=卷积1dLayer(11,96)
    layer = Convolution1DLayer with properties: Name: " Hyperparameters FilterSize: 11 NumChannels: 'auto' NumFilters: 96 Stride: 1 DilationFactor: 1 PaddingMode: 'manual' PaddingSize: [0 0] PaddingValue: 0 Learnable Parameters Weights: [] Bias:[]显示所有属性

    包含一个一维卷积层大堆

    layers=[sequenceInputLayer(12)卷积1Layer(11,96)reluLayer GlobalExpooling1Layer fullyConnectedLayer(10)softmaxLayer classificationLayer]
    层x1 = 7层阵列层:1“12维度2序列输入序列输入”卷积96 11旋转步1和填充[0 0]3”ReLU ReLU 4”一维全球最大池一维全球最大池5“完全连接10完全连接层6”Softmax Softmax crossentropyex 7”分类输出

    算法

    全部展开

    工具书类

    [1] 格洛特、泽维尔和约书亚·本吉奥,《理解训练深度前馈神经网络的困难》,年第十三届国际人工智能和统计会议论文集, 249–356. 意大利撒丁岛:AISTATS,2010年。

    [2] 何开明、张向宇、任少清、孙健。“深入研究整流器:在ImageNet分类方面超越人类水平的性能”,年2015年IEEE计算机视觉国际会议记录,1026–1034。华盛顿特区:IEEE计算机视觉学会,2015年。

    在R2021b中引入