主要内容

深度学习层列表

这个页面提供了MATLAB中的深度学习层列表®.

要了解如何为不同的任务从层创建网络,请参见下面的示例。

任务 了解更多
为图像分类或回归创建深度学习网络。

创建简单的分类深度学习网络

训练卷积神经网络用于回归

图像分类的训练残差网络

为序列和时间序列数据创建深度学习网络。

基于深度学习的序列分类

基于深度学习的时间序列预测

为音频数据创建深度学习网络。 基于深度学习的语音命令识别
为文本数据创建深度学习网络。

使用深度学习对文本数据进行分类

使用深度学习生成文本

深度学习层

使用下面的功能来创建不同的图层类型。另外,使用深度网络设计器交互式创建网络的应用程序。

要了解如何定义自己的自定义图层,请参见定义自定义深度学习层.

输入层

描述

图像输入层

图像输入层将二维图像输入到网络并应用数据规范化。

image3dInputLayer

3-D图像输入层向网络输入3-D图像或体积,并进行数据归一化。

序列输入层

序列输入层将序列数据输入到网络。

特征输入层

要素输入层将要素数据输入到网络并应用数据规范化。当您拥有表示要素的数字标量数据集(没有空间或时间维度的数据)时,请使用此图层。

ROI输入层(计算机视觉工具箱)

ROI输入层将图像输入到快速R-CNN对象检测网络。

卷积和全连接层

描述

convolution1dLayer

一维卷积层将滑动卷积滤波器应用于一维输入。

convolution2dLayer

二维卷积层将滑动卷积滤波器应用于二维输入。

convolution3dLayer

三维卷积层将滑动立方卷积滤波器应用于三维输入。

groupedConvolution2dLayer

一个二维分组卷积层将输入通道分成组,并应用滑动卷积滤波器。使用分组卷积层进行信道可分(也称为深度可分)卷积。

转置层

一个转置的二维卷积层上采样特征映射。

transposedConv3dLayer

转置的三维卷积层对三维特征图进行采样。

完全连接层

一个完全连通的层将输入乘以一个权值矩阵,然后添加一个偏置向量。

层序地层

描述

序列输入层

序列输入层将序列数据输入到网络。

第一层

LSTM层学习时间序列和序列数据中时间步长之间的长期依赖关系。

bilstmLayer

双向LSTM(BiLSTM)层学习时间序列或序列数据的时间步长之间的双向长期依赖关系。当您希望网络从每个时间步的完整时间序列中学习时,这些依赖关系非常有用。

gruLayer

GRU层学习时间序列中时间步长与序列数据之间的依赖关系。

convolution1dLayer

一维卷积层将滑动卷积滤波器应用于一维输入。

MaxPoolg1dLayer

1-D最大池化层通过将输入划分为1-D池化区域,然后计算每个区域的最大值来执行向下采样。

averagePooling1dLayer

1-D平均池化层通过将输入划分为1-D池化区域,然后计算每个区域的平均值来执行向下采样。

GlobalMapooling1dLayer

一维全局最大池层通过输出输入的最大时间或空间维度来执行下采样。

sequenceFoldingLayer

序列折叠层将一批图像序列转换为一批图像。使用序列折叠层对图像序列的时间步独立进行卷积运算。

序列展开层

序列展开层还原输入数据在序列折叠后的序列结构。

flattenLayer

平坦层将输入的空间维度折叠为通道维度。

wordEmbeddingLayer(文本分析工具箱)

单词嵌入层将单词索引映射到向量。

peepholeLSTMLayer(自定义层的例子)

活化层

描述

reluLayer

ReLU层对输入的每个元素执行阈值操作,其中任何小于零的值都设置为零。

漏泄层

泄漏ReLU层执行阈值操作,其中任何小于零的输入值都乘以固定标量。

剪纸机

剪裁的ReLU层执行阈值操作,其中小于零的任何输入值都设置为零,而大于零的任何值都设置为零裁剪天花板设置为该剪裁天花板。

淋溶层

一个ELU激活层在正输入上执行同一性操作,在负输入上执行指数非线性。

tanhLayer

双曲正切(tanh)激活层将tanh函数应用于层输入。

swishLayer

swish激活层对层输入应用swish功能。

softplusLayer(强化学习工具箱)

softplus层应用softplus激活功能Y= log(1 + eX),确保输出始终为正。此激活功能是的平滑连续版本reluLayer。您可以将此层合并到为强化学习代理中的参与者定义的深度神经网络中。此层用于创建标准偏差输出必须为正的连续高斯策略深度神经网络。

functionLayer

功能层将指定的功能应用于输入层。

preluLayer(自定义层的例子)

窥视孔LSTM层是LSTM层的变体,在LSTM层中,门计算使用层单元状态。

标准化、退出和裁剪图层

描述

批处理规范化层

批处理规范化层独立地对每个通道的所有观测值中的一小批数据进行规范化。为了加快卷积神经网络的训练并降低对网络初始化的敏感性,在卷积层和非线性(如ReLU层)之间使用批量归一化层。

组规范化层

组规范化层独立地规范化每个观察的通道分组子集上的一小批数据。为了加快卷积神经网络的训练并降低对网络初始化的敏感性,在卷积层和非线性(如ReLU层)之间使用组归一化层。

instanceNormalizationLayer

实例规范化层为每个观察独立地规范化每个通道上的一小批数据。为了提高卷积神经网络训练的收敛性,降低对网络超参数的敏感性,在卷积层和非线性(如ReLU层)之间使用实例归一化层。

layerNormalizationLayer

层规范化层独立地规范化每个观测的所有通道中的一小批数据。为了加快递归和多层感知器神经网络的训练,降低对网络初始化的敏感性,在可学习层(如LSTM和完全连接层)之后使用层规范化层。

交叉信道归一化层

信道本地响应(跨信道)归一化层执行信道归一化。

dropoutLayer

dropout层以给定的概率将输入元素随机设置为零。

crop2dLayer

二维裁剪层将二维裁剪应用于输入。

crop3dLayer

3-D作物层将3-D体积裁剪到输入特征图的大小。

缩放层(强化学习工具箱)

缩放层线性缩放输入阵列并使其偏置U,给出一个输出Y=刻度。*U+偏差。您可以将此层合并到为强化学习代理中的参与者或批评者定义的深层神经网络中。此层用于缩放和移动非线性层的输出,例如tanhLayer和乙状结肠。

quadraticLayer(强化学习工具箱)

二次层取一个输入向量,输出一个由输入元素构成的二次单项式向量。当你需要一个输出是其输入的二次函数的层时,这个层很有用。例如,重建二次值函数的结构,如在LQR控制器设计中使用的。

调整2D图层的大小(图像处理工具箱)

二维调整大小图层按比例因子调整二维输入的大小,调整到指定的高度和宽度,或调整到参考输入要素地图的大小。

调整3D图层的大小(图像处理工具箱)

3-D resize层根据比例因子将3-D输入调整为指定的高度、宽度和深度或参考输入特征图的大小。

stftLayer(信号处理工具箱)

短时傅立叶变换层计算输入的短时傅立叶变换。

池化和非池化层

描述

averagePooling1dLayer

1-D平均池化层通过将输入划分为1-D池化区域,然后计算每个区域的平均值来执行向下采样。

平均池2层

二维平均池化层通过将输入分割成矩形池化区域,然后计算每个区域的平均值来进行下采样。

平均池3层

三维平均池化层通过将三维输入划分为立方体池化区域,然后计算每个区域的平均值来进行下采样。

GlobalAveragePoolg1dLayer

一维全局平均池层通过输出输入的时间或空间维度的平均值来执行下采样。

GlobalAveragePoolg2Dlayer

二维全局平均池层通过计算输入的高度和宽度维度的平均值来执行下采样。

GlobalAveragePoolg3dLayer

三维全局平均池层通过计算输入的高度、宽度和深度维度的平均值来执行下采样。

MaxPoolg1dLayer

1-D最大池化层通过将输入划分为1-D池化区域,然后计算每个区域的最大值来执行向下采样。

maxPooling2dLayer

二维最大池层通过将输入划分为矩形池区域,然后计算每个区域的最大值来执行下采样。

maxPooling3dLayer

三维最大池化层通过将三维输入划分为立方体池化区域,然后计算每个区域的最大值来进行向下采样。

GlobalMapooling1dLayer

一维全局最大池层通过输出输入的最大时间或空间维度来执行下采样。

GlobalMapooling2DLayer

二维全局最大池层通过计算输入的高度和宽度维度的最大值来执行下采样。

globalMaxPooling3dLayer

3-D全局最大池化层通过计算输入的最大高度、宽度和深度维度来执行向下采样。

maxUnpooling2dLayer

二维最大取消耦合层取消耦合二维最大池层的输出。

组合层

描述

附加层

添加层按元素添加来自多个神经网络层的输入。

multiplicationLayer

乘法层将来自多个神经网络层的输入按单元相乘。

深度连接层

深度连接层接收具有相同高度和宽度的输入,并沿第三维(通道维度)连接它们。

连接层

连接层接收输入并将它们沿着指定的维度连接起来。除了连接维度外,所有维度的输入必须具有相同的大小。

weightedAdditionLayer(自定义层的例子)

加权加法层按元素缩放并添加来自多个神经网络层的输入。

目标检测层

描述

ROI输入层(计算机视觉工具箱)

ROI输入层将图像输入到快速R-CNN对象检测网络。

roiMaxPooling2dLayer(计算机视觉工具箱)

ROI最大池层为输入特征映射内的每个矩形ROI输出固定大小的特征映射。使用此层创建快速或更快的R-CNN对象检测网络。

roiAlignLayer(计算机视觉工具箱)

ROI对齐层为输入特征图中的每个矩形ROI输出固定大小的特征图。使用这一层创建一个Mask R-CNN网络。

锚定层(计算机视觉工具箱)

锚定框层存储用于对象检测网络的特征地图的锚定框。

regionProposalLayer(计算机视觉工具箱)

区域建议层输出图像中潜在对象周围的边界框,作为快速R-CNN中区域建议网络(RPN)的一部分。

ssdMergeLayer(计算机视觉工具箱)

SSD合并层将特征图的输出进行合并,用于后续的回归和分类损失计算。
yolov2TransformLayer(计算机视觉工具箱) you only look once version 2(YOLO v2)网络的变换层将网络中最后一个卷积层的边界框预测变换为落在地面真实值的范围内。使用转换层提高YOLO v2网络的稳定性。

spaceToDepthLayer(图像处理工具箱)

空间到深度层将输入的空间块排列到深度维度中。当需要组合不同大小的要素地图而不丢弃任何要素数据时,请使用此图层。

depthToSpace2dLayer(图像处理工具箱)

二维深度到空间层将深度维度的数据置换成二维空间数据块。

rpnSoftmaxLayer(计算机视觉工具箱)

RPN (region proposal network) softmax层对输入端应用softmax激活功能。使用这一层创建一个更快的R-CNN对象检测网络。

聚焦层(计算机视觉工具箱)

焦点损失层使用焦点损失预测对象类。

rpnClassificationLayer(计算机视觉工具箱)

区域建议网络(RPN)分类层将图像区域分为两种对象出身背景通过使用交叉熵损失函数。使用此层创建更快的R-CNN对象检测网络。

回归层(计算机视觉工具箱)

盒回归层通过使用平滑的L1损失函数来改进包围盒的位置。使用这一层创建一个快速或更快的R-CNN对象检测网络。

输出层

描述

softmaxLayer

softmax层将softmax功能应用于输入。

乙状结肠

s型层将s型函数应用于输入,使输出在区间(0,1)内有界。

分类层

分类层计算具有互斥类的分类和加权分类任务的交叉熵损失。

regressionLayer

回归层计算回归任务的半均方误差损失。

pixelClassificationLayer(计算机视觉工具箱)

像素分类层为每个图像像素或体素提供分类标签。

dicePixelClassificationLayer(计算机视觉工具箱)

Dice像素分类层使用广义Dice损失为每个图像像素或体素提供分类标签。

聚焦层(计算机视觉工具箱)

焦点损失层使用焦点损失预测对象类。

rpnSoftmaxLayer(计算机视觉工具箱)

RPN (region proposal network) softmax层对输入端应用softmax激活功能。使用这一层创建一个更快的R-CNN对象检测网络。

rpnClassificationLayer(计算机视觉工具箱)

区域建议网络(RPN)分类层将图像区域分为两种对象出身背景通过使用交叉熵损失函数。使用此层创建更快的R-CNN对象检测网络。

回归层(计算机视觉工具箱)

盒回归层通过使用平滑的L1损失函数来改进包围盒的位置。使用这一层创建一个快速或更快的R-CNN对象检测网络。

yolov2OutputLayer(计算机视觉工具箱)

版本2 (YOLO v2)网络的输出层通过最小化预测位置和地面真实值之间的均方误差损失来改进边界框位置。

tverskyPixelClassificationLayer(自定义层的例子)

特沃斯基像素分类层使用特沃斯基损耗为每个图像像素或体素提供分类标签。

sseClassificationLayer(自定义层的例子)

分类SSE层计算分类问题的平方和误差损失。

maeRegressionLayer(自定义层的例子)

回归MAE层计算回归问题的平均绝对误差损失。

另请参阅

||

相关的话题