这个页面提供了MATLAB中的深度学习层列表®.
要了解如何为不同的任务从层创建网络,请参见下面的示例。
任务 | 了解更多 |
---|---|
创建图像分类或回归的深度学习网络。 | |
为序列和时间序列数据创建深度学习网络。 | |
创建音频数据深度学习网络。 | 基于深度学习的语音指令识别 |
创建文本数据的深度学习网络。 |
使用下面的功能来创建不同的图层类型。另外,使用深层网络设计师交互式创建网络的应用程序。
要了解如何定义自己的自定义层,请参见定义自定义深度学习层.
层 | 描述 |
---|---|
图像输入层向网络输入二维图像并应用数据归一化。 | |
3-D图像输入层向网络输入3-D图像或体积,并进行数据归一化。 | |
序列输入层将序列数据输入到网络。 | |
特征输入层将特征数据输入到网络,并进行数据规范化。当您拥有表示特征(不含空间或时间维度的数据)的数字标量数据集时,请使用此层。 | |
|
ROI输入层将图像输入到Fast R-CNN目标检测网络。 |
层 | 描述 |
---|---|
一维卷积层将滑动卷积滤波器应用于一维输入。 | |
二维卷积层将滑动卷积滤波器应用于二维输入。 | |
三维卷积层将滑动立方卷积滤波器应用于三维输入。 | |
一个二维分组卷积层将输入通道分成组,并应用滑动卷积滤波器。使用分组卷积层进行信道可分(也称为深度可分)卷积。 | |
一个转置的二维卷积层上采样特征映射。 | |
转置的三维卷积层对三维特征图进行采样。 | |
一个完全连通的层将输入乘以一个权值矩阵,然后添加一个偏置向量。 |
层 | 描述 |
---|---|
序列输入层将序列数据输入到网络。 | |
LSTM层学习时间序列中时间步长与序列数据之间的长期依赖关系。 | |
双向LSTM (BiLSTM)层学习时间序列或序列数据的时间步长之间的双向长期依赖关系。当您希望网络在每个时间步骤中从完整的时间序列中学习时,这些依赖项可能会很有用。 | |
GRU层学习时间序列中时间步长与序列数据之间的依赖关系。 | |
一维卷积层将滑动卷积滤波器应用于一维输入。 | |
1-D最大池化层通过将输入划分为1-D池化区域,然后计算每个区域的最大值来执行向下采样。 | |
1-D平均池化层通过将输入划分为1-D池化区域,然后计算每个区域的平均值来执行向下采样。 | |
一维全局最大池化层通过输出输入的最大时间或空间维度来执行向下采样。 | |
序列折叠层将一批图像序列转换为一批图像。使用序列折叠层对图像序列的时间步独立进行卷积运算。 | |
序列展开层还原输入数据在序列折叠后的序列结构。 | |
扁平层将输入的空间维度折叠为通道维度。 | |
|
单词嵌入层将单词索引映射到向量。 |
|
层 | 描述 |
---|---|
ReLU层对输入的每个元素执行一个阈值操作,其中任何小于零的值都被设置为零。 | |
一个泄漏的ReLU层执行一个阈值操作,其中任何小于零的输入值乘以一个固定标量。 | |
被裁剪的ReLU层执行一个阈值操作,其中任何小于0的输入值都被设置为0,任何高于剪裁天花板被设置在了天花板上。 | |
一个ELU激活层在正输入上执行同一性操作,在负输入上执行指数非线性。 | |
双曲正切(tanh)激活层将tanh函数应用于层输入。 | |
swish激活层对层输入应用swish功能。 | |
|
软加层采用软加激活功能Y= log(1 + eX),以确保输出总是正的。这个激活函数是一个平滑连续的reluLayer .你可以将这一层整合到你为强化学习代理中的参与者定义的深度神经网络中。这一层对于创建连续高斯策略深度神经网络非常有用,对于这种神经网络,标准差输出必须为正。 |
功能层将指定的功能应用于层输入。 | |
|
窥孔LSTM层是LSTM层的一种变体,其中门计算使用层单元状态。 |
层 | 描述 |
---|---|
批处理归一化层对每个通道的所有观测数据进行独立的归一化。为了加快卷积神经网络的训练,降低对网络初始化的敏感性,在卷积层和非线性层之间使用批处理归一化层,如ReLU层。 | |
组归一化层对每个观测的跨信道分组子集的小批数据进行独立归一化。为了加快卷积神经网络的训练,降低对网络初始化的敏感性,可以在卷积层和非线性层之间使用群归一化层,如ReLU层。 | |
实例规格化层对每个观测的每个通道上的小批数据进行独立的规格化。为了提高卷积神经网络训练的收敛性,降低对网络超参数的敏感性,在卷积层和非线性层之间使用实例归一化层,如ReLU层。 | |
一层规格化层对每个观测的所有通道的小批数据进行独立的规格化。为了加快递归多层感知器神经网络的训练,降低对网络初始化的敏感性,可以在可学习层之后再使用层归一化层,如LSTM和全连接层。 | |
信道本地响应(跨信道)归一化层执行信道归一化。 | |
dropout层以给定的概率将输入元素随机设置为零。 | |
2-D作物层应用2-D裁剪输入。 | |
3-D作物层将3-D体积裁剪到输入特征图的大小。 | |
|
缩放层线性缩放输入阵列并使其偏置U ,给出输出Y =。* U +偏见 .你可以将这一层整合到你在强化学习代理中为参与者或批评者定义的深度神经网络中。这一层用于缩放和移动非线性层的输出,例如tanhLayer 和乙状结肠。 |
|
二次层取一个输入向量,输出一个由输入元素构成的二次单项式向量。当你需要一个输出是其输入的二次函数的层时,这个层很有用。例如,重建二次值函数的结构,如在LQR控制器设计中使用的。 |
|
2d调整大小层通过比例因子调整2d输入的大小,使其达到指定的高度和宽度,或参考输入特征图的大小。 |
|
3-D resize层根据比例因子将3-D输入调整为指定的高度、宽度和深度或参考输入特征图的大小。 |
|
短时傅立叶变换层计算输入的短时傅立叶变换。 |
层 | 描述 |
---|---|
1-D平均池化层通过将输入划分为1-D池化区域,然后计算每个区域的平均值来执行向下采样。 | |
二维平均池化层通过将输入分割成矩形池化区域,然后计算每个区域的平均值来进行下采样。 | |
三维平均池化层通过将三维输入划分为立方体池化区域,然后计算每个区域的平均值来进行下采样。 | |
一维全局平均池化层通过输出输入的时间或空间维度的平均值来执行向下采样。 | |
二维全局平均池化层通过计算输入的高度和宽度维度的平均值来执行下采样。 | |
三维全局平均池化层通过计算输入的高度、宽度和深度维度的平均值来执行下采样。 | |
1-D最大池化层通过将输入划分为1-D池化区域,然后计算每个区域的最大值来执行向下采样。 | |
二维最大池化层通过将输入分割成矩形池化区域,然后计算每个区域的最大值来进行向下采样。 | |
三维最大池化层通过将三维输入划分为立方体池化区域,然后计算每个区域的最大值来进行向下采样。 | |
一维全局最大池化层通过输出输入的最大时间或空间维度来执行向下采样。 | |
一个二维全局最大池化层通过计算输入高度和宽度的最大尺寸来执行向下采样。 | |
3-D全局最大池化层通过计算输入的最大高度、宽度和深度维度来执行向下采样。 | |
一个2d最大非池化层将取消池化一个2d最大池化层的输出。 |
层 | 描述 |
---|---|
加法层以元素的方式增加来自多个神经网络层的输入。 | |
乘法层将来自多个神经网络层的输入按单元相乘。 | |
深度级联层接受具有相同高度和宽度的输入,并沿第三维(通道维)将它们级联。 | |
连接层接收输入并将它们沿着指定的维度连接起来。除了连接维度外,所有维度的输入必须具有相同的大小。 | |
|
加权加法层按元素扩展并添加来自多个神经网络层的输入。 |
层 | 描述 |
---|---|
|
ROI输入层将图像输入到Fast R-CNN目标检测网络。 |
|
ROI最大池化层为输入特征图中的每个矩形ROI输出固定大小的特征图。使用这一层创建一个快速或更快的R-CNN对象检测网络。 |
|
ROI对齐层为输入特征图中的每个矩形ROI输出固定大小的特征图。使用这一层创建一个Mask R-CNN网络。 |
|
锚盒层存储用于对象检测网络的特征图的锚盒。 |
|
在Faster R-CNN中,区域建议层输出围绕图像中潜在目标的包围框,作为区域建议网络(RPN)的一部分。 |
|
SSD合并层将特征图的输出进行合并,用于后续的回归和分类损失计算。 |
yolov2TransformLayer (计算机视觉工具箱) |
YOLO v2网络的变换层将网络中最后一个卷积层的边界盒预测转换为地面真理的范围内。通过变换层提高YOLO v2网络的稳定性。 |
|
空间到深度层将输入的空间块置换为深度维度。当您需要在不丢弃任何特征数据的情况下组合不同大小的特征图时,可以使用此层。 |
|
二维深度到空间层将深度维度的数据置换成二维空间数据块。 |
|
RPN (region proposal network) softmax层对输入端应用softmax激活功能。使用这一层创建一个更快的R-CNN对象检测网络。 |
|
焦点丢失层使用焦点丢失预测对象类。 |
|
区域建议网络(RPN)分类层将图像区域分为两种对象或背景通过交叉熵损失函数。使用这一层创建一个更快的R-CNN对象检测网络。 |
|
盒回归层通过使用平滑的L1损失函数来改进包围盒的位置。使用这一层创建一个快速或更快的R-CNN对象检测网络。 |
层 | 描述 |
---|---|
softmax层对输入端应用softmax功能。 | |
s型层将s型函数应用于输入,使输出在区间(0,1)内有界。 | |
分类层计算分类和具有互斥类的加权分类任务的交叉熵损失。 | |
回归层计算回归任务的半均方误差损失。 | |
|
像素分类层为每个图像像素或体素提供分类标签。 |
|
Dice像素分类层使用广义Dice损失为每个图像像素或体素提供分类标签。 |
|
焦点丢失层使用焦点丢失预测对象类。 |
|
RPN (region proposal network) softmax层对输入端应用softmax激活功能。使用这一层创建一个更快的R-CNN对象检测网络。 |
|
区域建议网络(RPN)分类层将图像区域分为两种对象或背景通过交叉熵损失函数。使用这一层创建一个更快的R-CNN对象检测网络。 |
|
盒回归层通过使用平滑的L1损失函数来改进包围盒的位置。使用这一层创建一个快速或更快的R-CNN对象检测网络。 |
|
版本2 (YOLO v2)网络的输出层通过最小化预测位置和地面真实值之间的均方误差损失来改进边界框位置。 |
|
特沃斯基像素分类层使用特沃斯基损耗为每个图像像素或体素提供分类标签。 |
|
分类SSE层计算分类问题的平方和误差损失。 |
|
回归MAE层计算回归问题的平均绝对误差损失。 |
trainingOptions
|trainNetwork
|深层网络设计师