本页面提供了MATLAB中的深度学习层列表®.
要了解如何为不同的任务从层创建网络,请参见以下示例。
任务 | 了解更多 |
---|---|
创建用于图像分类或回归的深度学习网络。 | |
为序列和时间序列数据创建深度学习网络。 | |
创建音频数据深度学习网络。 | 基于深度学习的语音命令识别 |
为文本数据创建深度学习网络。 |
使用以下函数创建不同的层类型。另外,使用深层网络设计师应用程序创建网络互动。
要了解如何定义自己的自定义层,请参见定义自定义深度学习层.
层 | 描述 |
---|---|
图像输入层向网络输入二维图像并应用数据规范化。 | |
3-D图像输入层将3-D图像或卷输入到网络并应用数据标准化。 | |
序列输入层将序列数据输入网络。 | |
特征输入层将特征数据输入网络并进行数据规范化。当您有一组数字标量表示特性(没有空间或时间维度的数据)时,请使用此层。 | |
|
ROI输入层将图像输入到快速R-CNN目标检测网络。 |
层 | 描述 |
---|---|
二维卷积层将滑动卷积滤波器应用于输入。 | |
三维卷积层将滑动长方体卷积滤波器应用于三维输入。 | |
二维分组卷积层将输入通道分组并应用滑动卷积滤波器。将分组卷积层用于信道可分离(也称为深度可分离)卷积。 | |
一个转置的2-D卷积层上采样特征图。 | |
一个转置的三维卷积层上采样三维特征图。 | |
全连通层将输入乘以一个权值矩阵,然后添加一个偏置向量。 |
层 | 描述 |
---|---|
序列输入层将序列数据输入网络。 | |
LSTM层学习时间序列和序列数据的时间步长依赖性。 | |
双向LSTM (BiLSTM)层学习时间序列或序列数据时间步长之间的双向长期依赖关系。当您希望网络在每个时间步中学习完整的时间序列时,这些依赖关系可能非常有用。 | |
GRU层学习时间序列和序列数据中的时间步长之间的依赖关系。 | |
序列折叠层将一批图像序列转换为一批图像。利用序列折叠层对图像序列的时间步长单独进行卷积运算。 | |
序列展开层在序列折叠后恢复输入数据的序列结构。 | |
扁平层将输入的空间维度折叠为通道维度。 | |
|
词嵌入层将词索引映射到向量。 |
层 | 描述 |
---|---|
ReLU层对输入的每个元素执行阈值操作,其中任何小于零的值都被设为零。 | |
泄漏ReLU层执行一个阈值操作,其中任何小于零的输入值都乘以一个固定标量。 | |
一个裁剪的ReLU层执行一个阈值操作,其中任何小于零的输入值被设置为零,任何高于剪裁天花板都被设定在了天花板上。 | |
ELU激活层对正输入执行恒等运算,对负输入执行指数非线性运算。 | |
双曲正切(tanh)激活层将tanh函数应用于层输入。 | |
|
PReLU层执行阈值操作,对于每个通道,任何小于零的输入值都乘以在训练时学到的标量。 |
层 | 描述 |
---|---|
批处理规范化层对一个小批处理中的每个输入通道进行规范化。为了加快卷积神经网络的训练速度,降低对网络初始化的敏感性,在卷积层和非线性层之间使用批处理归一化层,如ReLU层。 | |
组规范化层将输入数据的通道划分为组,并对每个组之间的激活进行规范化。为了加快卷积神经网络的训练,降低对网络初始化的敏感性,在卷积层之间使用组归一化层和非线性层,如ReLU层。您可以通过设置适当数量的组来执行实例规范化和层规范化。 | |
信道级的本地响应(跨信道)规范化层执行信道级的规范化。 | |
dropout层以给定的概率将输入元素随机设置为零。 | |
二维作物层将二维作物应用于输入。 | |
3-D裁剪层将3-D体积裁剪成输入特征图的大小。 | |
|
二维调整大小层通过缩放因子或指定的高度和宽度来调整二维输入的大小。 |
|
3-D调整大小层通过一个比例因子或指定的高度、宽度和深度来调整3-D输入。 |
层 | 描述 |
---|---|
平均池化层通过将输入划分为矩形池化区域并计算每个区域的平均值来执行降采样。 | |
三维平均池化层通过将三维输入划分为立方体池化区域并计算每个区域的平均值来进行降采样。 | |
全局平均池化层通过计算输入的高度和宽度维度的平均值来执行降采样。 | |
3-D全局平均池化层通过计算输入的高度、宽度和深度维度的平均值来执行降采样。 | |
最大池化层通过将输入划分为矩形池化区域,并计算每个区域的最大值来执行降采样。 | |
三维最大池化层通过将三维输入划分为立方体池化区域,并计算每个区域的最大值来实现降采样。 | |
全局最大池化层通过计算输入的高度和宽度尺寸的最大值来执行降采样。 | |
3-D全局最大池化层通过计算输入的最大高度、宽度和深度维度来执行降采样。 | |
最大反池层对最大池化层的输出进行反池。 |
层 | 描述 |
---|---|
添加层以元素的方式添加来自多个神经网络层的输入。 | |
倍增层将来自多个神经网络层的输入按元素顺序相乘。 | |
深度级联层接收具有相同高度和宽度的输入,并沿第三维(通道维)将它们级联。 | |
连接层接收输入并沿指定维度连接它们。输入必须在除连接维度外的所有维度上具有相同的大小。 | |
|
一个加权加法层对多个神经网络层的输入进行缩放和添加。 |
层 | 描述 |
---|---|
|
ROI输入层将图像输入到快速R-CNN目标检测网络。 |
|
ROI最大池化层对输入特征图中的每个矩形ROI输出固定大小的特征图。使用此层创建一个Fast或Faster R-CNN对象检测网络。 |
|
ROI对齐层对输入特征图中的每个矩形ROI输出固定大小的特征图。使用此层创建一个Mask-RCNN网络。 |
|
锚盒层存储用于目标检测网络的特征地图的锚盒。 |
|
区域建议层输出图像中潜在目标周围的边界框,作为Faster R-CNN内区域建议网络(RPN)的一部分。 |
|
SSD合并层合并特征映射的输出,用于后续的回归和分类损失计算。 |
|
空间到深度层将输入的空间块排列到深度维度中。当需要合并不同大小的特征图而不丢弃任何特征数据时,可以使用该层。 |
|
区域提议网络(RPN) softmax层对输入应用softmax激活函数。使用这一层创建一个Faster R-CNN对象检测网络。 |
|
焦损失层使用焦损失预测对象类别。 |
|
区域建议网络(RPN)分类层将图像区域分为两类对象或背景利用交叉熵损失函数。使用这一层创建一个Faster R-CNN对象检测网络。 |
|
盒回归层通过使用平滑的L1损失函数来细化盒的边界位置。使用此层创建一个Fast或Faster R-CNN对象检测网络。 |
层 | 描述 |
---|---|
|
一个项目和重塑层以一个接一个的输入numLatentInputs 数组,并将其转换为指定大小的图像。使用项目和重塑图层来重塑输入到gan的噪声。 |
|
嵌入和重塑层将分类元素的数值索引作为输入,并将其转换为指定大小的图像。使用嵌入和重塑层将分类数据输入条件gan。 |
层 | 描述 |
---|---|
softmax层对输入应用softmax函数。 | |
sigmoid层对输入应用sigmoid函数,使输出限定在区间(0,1)内。 | |
分类层计算具有互斥类的多类分类问题的交叉熵损失。 | |
回归层计算回归问题的半均方误差损失。 | |
|
像素分类层为每个图像像素或体素提供分类标签。 |
|
骰子像素分类层使用广义骰子损耗为每个图像像素或体素提供分类标签。 |
|
焦损失层使用焦损失预测对象类别。 |
|
区域提议网络(RPN) softmax层对输入应用softmax激活函数。使用这一层创建一个Faster R-CNN对象检测网络。 |
|
区域建议网络(RPN)分类层将图像区域分为两类对象或背景利用交叉熵损失函数。使用这一层创建一个Faster R-CNN对象检测网络。 |
|
盒回归层通过使用平滑的L1损失函数来细化盒的边界位置。使用此层创建一个Fast或Faster R-CNN对象检测网络。 |
|
加权分类层计算分类问题的加权交叉熵损失。 |
|
特维斯基像素分类层使用特维斯基损耗为每个图像像素或体素提供分类标签。 |
|
分类SSE层计算分类问题的平方和误差损失。 |
|
回归MAE层计算回归问题的平均绝对误差损失。 |
深层网络设计师|trainingOptions
|trainNetwork