主要内容

このページの翻訳は最新ではありません。ここをクリックして,英語の最新版を参照してください。

connectLayers

層グラフの層の結合

説明

newlgraph= connectLayers (lgraph年代dは,結合元の層年代を層グラフlgraphに含まれる結合先の層dに結合します。新しい層グラフnewlgraphにはlgraphと同じ層が含まれ,結合が新しく含まれます。

すべて折りたたむ

2つの入力があり,名前が“add_1”である加算層を作成します。

添加= additionLayer (2“名字”“add_1”
add = AdditionLayer with properties: Name: 'add_1' NumInputs: 2 InputNames: {'in1' 'in2'}

2つのReLU層を作成し,これらの層を加算層に結合します。加算層でReLU層の出力が加算されます。

relu_1 = reluLayer (“名字”“relu_1”);relu_2 = reluLayer (“名字”“relu_2”);lgraph = layerGraph;lgraph = addLayers (lgraph relu_1);lgraph = addLayers (lgraph relu_2);lgraph = addLayers (lgraph,添加);lgraph = connectLayers (lgraph,“relu_1”“add_1 /三机一体”);lgraph = connectLayers (lgraph,“relu_2”“add_1 / in2”);情节(lgraph)

图中包含一个坐标轴。坐标轴包含一个graphplot类型的对象。

深層学習用のシンプルな有向非循環グラフ(DAG)ネットワークを作成します。数字のイメージを分類するようネットワークに学習させます。この例のシンプルなネットワークは,以下から構成されます。

  • 逐次結合層による主分岐。

  • 単一の1 x 1畳み込み層を含む“ショートカット結合”。ショートカット結合は,パラメーターの勾配がネットワークの出力層からより初期の層へとよりスムーズに流れるようにします。

ネットワークの主分岐を層配列として作成します。加算層では複数の入力が要素単位で合計されます。加算層で合計する入力数を指定します。すべての層に名前があり、すべての名前が一意でなければなりません。

[imageInputLayer([28 28 1],]),“名字”“输入”16) convolution2dLayer(5日,“填充”“相同”“名字”“conv_1”) batchNormalizationLayer (“名字”“BN_1”) reluLayer (“名字”“relu_1”32岁的)convolution2dLayer (3“填充”“相同”“步”2,“名字”“conv_2”) batchNormalizationLayer (“名字”“BN_2”) reluLayer (“名字”“relu_2”32岁的)convolution2dLayer (3“填充”“相同”“名字”“conv_3”) batchNormalizationLayer (“名字”“BN_3”) reluLayer (“名字”“relu_3”) additionLayer (2“名字”“添加”) averagePooling2dLayer (2“步”2,“名字”“avpool”) fullyConnectedLayer (10“名字”“俱乐部”) softmaxLayer (“名字”“softmax”) classificationLayer (“名字”“classOutput”));

層配列から層グラフを作成します。layerGraphのすべての層を順に結合します。層グラフをプロットします。

lgraph = layerGraph(层);图绘制(lgraph)

1 x 1畳み込み層を作成し,層グラフに追加します。活性化のサイズが“relu_3”層の活性化のサイズと一致するように,畳み込みフィルターの数とストライドを指定します。この方法により,加算層で“skipConv”層と“relu_3”層の出力を加算できます。層がグラフに含まれることを確認するには,層グラフをプロットします。

32岁的skipConv = convolution2dLayer (1“步”2,“名字”“skipConv”);lgraph = addLayers (lgraph skipConv);图绘制(lgraph)

“relu_1”層から“添加”層へのショートカット結合を作成します。層の作成時に加算層への入力数を 2 に指定しているため、層には“三机”および“in2”という名前の2つの入力があります。“relu_3”層は既に“三机”入力に結合されています。“relu_1”層を“skipConv”層に結合し,“skipConv”層を“添加”層の“in2”入力に結合します。ここで加算層は“relu_3”層と“skipConv”層の出力を合計します。層が正しく結合されていることを確認するには,層グラフをプロットします。

lgraph = connectLayers (lgraph,“relu_1”“skipConv”);lgraph = connectLayers (lgraph,“skipConv”“添加/ in2”);图绘制(lgraph);

数字の28 x 28のグレースケールイメージで構成される学習データと検証データを読み込みます。

[XTrain, YTrain] = digitTrain4DArrayData;[XValidation, YValidation] = digitTest4DArrayData;

学習オプションを指定してネットワークに学習させます。trainNetworkは,ValidationFrequency回の反復ごとに検証データを使用してネットワークを検証します。

选择= trainingOptions (“个”...“MaxEpochs”8...“洗牌”“every-epoch”...“ValidationData”{XValidation, YValidation},...“ValidationFrequency”30岁的...“详细”假的,...“阴谋”“训练进步”);网= trainNetwork (XTrain YTrain、lgraph选项);

学習済みネットワークのプロパティを表示します。ネットワークはDAGNetworkオブジェクトになります。

net = DAGNetwork with properties: Layers: [16×1 net.cnn.layer. layer] Connections: [16×2 table] InputNames: {'input'} OutputNames: {'classOutput'}

検証イメージを分類し,精度を計算します。ネットワークは非常に正確になっています。

YPredicted =分类(净,XValidation);精度=平均值(YPredicted == YValidation)
精度= 0.9930

入力引数

すべて折りたたむ

層グラフ。LayerGraphオブジェクトとして指定します。層グラフを作成するには,layerGraphを使用します。

結合元。文字ベクトルまたは字符串スカラーとして指定します。

  • 結合元の層に1つの出力がある場合,年代は層の名前です。

  • 結合元の層に複数の出力がある場合,年代は層の名前で,その後に文字/,さらに層出力の名前が続きます(“layerName / outputName”)。

例:“conv1”

例:“mpool /指数”

結合先。文字ベクトルまたは字符串スカラーとして指定します。

  • 結合先の層に1つの入力がある場合,dは層の名前です。

  • 結合先の層に複数の入力がある場合,dは層の名前で,その後に文字/,さらに層入力の名前が続きます(“layerName / inputName”)。

例:“俱乐部”

例:“addlayer1 / in2”

出力引数

すべて折りたたむ

出力層グラフ。LayerGraphオブジェクトとして返されます。

R2017bで導入