主要内容

layerGraph

用于深度学习的网络层图

描述

层图指定了具有更复杂的图结构的深度学习网络的结构,其中各层可以有来自多个层的输入和输出到多个层的输出。具有这种结构的网络称为有向无环图(DAG)网络。在创建layerGraph对象,您可以使用对象函数来绘制图形,并通过添加、删除、连接和断开层来修改它。为了训练网络,使用层图作为输入trainNetwork函数。

创建

描述

例子

lgraph= layerGraph创建不包含任何层的空层图。控件可以向空图添加图层addLayers函数。

例子

lgraph= layerGraph (从一组网络层创建一个层图,并设置财产。的层lgraph连接的顺序与在

例子

lgraph= layerGraph (提取a的层图SeriesNetworkDAGNetwork对象。例如,您可以提取预先训练的网络的层图来执行迁移学习。

lgraph= layerGraph (dlnet提取a的层图dlnetwork.使用此语法来使用dlnetworktrainNetwork函数或深层网络设计师

输入参数

全部展开

训练有素的网络,指定为SeriesNetwork或者一个DAGNetwork对象。您可以通过导入一个预先训练过的网络(例如,使用googlenet功能)或通过训练自己的网络使用trainNetwork

网络自定义训练循环,指定为dlnetwork对象。

dlnetwork输入时,软件从可学习参数中提取数值数据,并将其转换为单精度。

属性

全部展开

此属性是只读的。

网络层,指定为数组中。

此属性是只读的。

层连接,指定为具有两列的表。

每个表行表示层图中的一个连接。第一列,,指定每个连接的来源。第二列,目的地,指定每个连接的目的地。连接源和目的地要么是层名,要么是表单“layerName / IOName”,在那里“IOName”是层输入或输出的名称。

数据类型:表格

此属性是只读的。

网络输入层名称,指定为字符向量的单元格数组。

数据类型:细胞

网络输出层名称,指定为字符向量的单元格数组。

数据类型:细胞

对象的功能

addLayers 添加层到层图
removeLayers 从层图中移除层
replaceLayer 在层图中替换层
connectLayers 在层图中连接层
disconnectLayers 在层图中断开层
情节 绘制神经网络层图

例子

全部折叠

创建一个空层图和一组层。将层添加到层图中并绘制图。addLayers按顺序连接各层。

lgraph = layerGraph;[imageInputLayer([32 32 3],]),“名字”“输入”) convolution2dLayer(3, 16岁,“填充”“相同”“名字”“conv_1”) batchNormalizationLayer (“名字”“BN_1”) reluLayer (“名字”“relu_1”));lgraph = addLayers (lgraph层);图绘制(lgraph)

图中包含一个轴对象。axis对象包含一个graphplot类型的对象。

创建一个图层数组。

[imageInputLayer([28 28 1],]),“名字”“输入”) convolution2dLayer(3, 16岁,“填充”“相同”“名字”“conv_1”) batchNormalizationLayer (“名字”“BN_1”) reluLayer (“名字”“relu_1”));

从图层数组中创建一个图层图。layerGraph连接所有的层按顺序。绘制图层图。

lgraph = layerGraph(层);图绘制(lgraph)

图中包含一个轴对象。axis对象包含一个graphplot类型的对象。

加载一个预先训练过的SqueezeNet网络。你可以使用这个训练有素的网络进行分类和预测。

网= squeezenet;

为了对网络结构进行修改,首先对DAG网络的结构进行提取layerGraph然后可以使用的对象函数LayerGraph修改网络结构。

lgraph = layerGraph(净)
lgraph = LayerGraph with properties: Layers: [68x1 nnet.cnn.layer.Layer] Connections: [75x2 table] InputNames: {'data'} OutputNames: {'ClassificationLayer_predictions'}

为深度学习创建一个简单的有向无环图(DAG)网络。训练网络对数字图像进行分类。这个例子中的简单网络包括:

  • 各层按顺序连接的一种主分支。

  • 一个快捷方式连接包含一个1乘1的卷积层。快捷连接使参数梯度更容易从输出层流向网络的早期层。

创建网络的主分支作为一个层阵列。加法层对多个输入元素进行求和。指定要求和的添加层的输入数量。为方便以后添加连接,指定第一个ReLU层和添加层的名称。

layers = [imageInputLayer([28 28 1])]“填充”“相同”) batchNormalizationLayer reluLayer (“名字”“relu_1”32岁的)convolution2dLayer (3“填充”“相同”“步”,2) batchNormalizationLayer reluLayer convolution2dLayer(3,32,)“填充”“相同”) batchNormalizationLayer reluLayer additionLayer(2,“名字”“添加”) averagePooling2dLayer (2“步”,2) fulllyconnectedlayer (10) softmaxLayer classificationLayer;

从图层数组中创建一个图层图。layerGraph连接所有的层按顺序。绘制图层图。

lgraph = layerGraph(层);图绘制(lgraph)

图中包含一个轴对象。axis对象包含一个graphplot类型的对象。

创建1乘1的卷积层,并将其添加到层图中。指定卷积滤波器的数量和步幅,使激活大小与第三个ReLU层的激活大小匹配。这种安排使添加层能够添加第三个ReLU层和1乘1卷积层的输出。要检查层是否在图中,绘制层图。

32岁的skipConv = convolution2dLayer (1“步”2,“名字”“skipConv”);lgraph = addLayers (lgraph skipConv);图绘制(lgraph)

图中包含一个轴对象。axis对象包含一个graphplot类型的对象。

从。创建快捷连接“relu_1”层的“添加”层。因为您在创建添加层时指定了2作为添加层的输入数量,所以该层有两个名为“三机”“in2”.第三个ReLU层已经连接到“三机”输入。连接“relu_1”层的“skipConv”层和“skipConv”层的“in2”输入的“添加”层。加法层现在将第三个ReLU层的输出和“skipConv”层。要检查层是否连接正确,绘制层图。

lgraph = connectLayers (lgraph,“relu_1”“skipConv”);lgraph = connectLayers (lgraph,“skipConv”“添加/ in2”);图绘制(lgraph);

图中包含一个轴对象。axis对象包含一个graphplot类型的对象。

加载训练和验证数据,其中包含28 × 28的数字灰度图像。

[XTrain, YTrain] = digitTrain4DArrayData;[XValidation, YValidation] = digitTest4DArrayData;

指定培训选项并对网络进行培训。trainNetwork每次使用验证数据验证网络ValidationFrequency迭代。

选择= trainingOptions (“个”...“MaxEpochs”8...“洗牌”“every-epoch”...“ValidationData”{XValidation, YValidation},...“ValidationFrequency”30岁的...“详细”假的,...“阴谋”“训练进步”);网= trainNetwork (XTrain YTrain、lgraph选项);

Figure Training Progress (01-Sep-2021 08:31:32)包含2个轴对象和另一个类型为uigridlayout的对象。axis对象1包含15个类型为patch, text, line的对象。axis对象2包含15个类型为patch, text, line的对象。

显示训练网络的属性。网络是一个DAGNetwork对象。

net = DAGNetwork with properties: Layers: [16x1 net.cnn.layer. layer] Connections: [16x2 table] InputNames: {'imageinput'} OutputNames: {'classoutput'}

对验证图像进行分类并计算精度。这个网络非常准确。

YPredicted =分类(净,XValidation);精度=平均值(YPredicted == YValidation)
精度= 0.9934
介绍了R2017b