主要内容

このページの翻訳は最新ではありません。ここをクリックして,英語の最新版を参照してください。

additionLayer

説明

加算層は,複数のニューラルネットワーク層からの入力を要素単位で加算します。

作成時に層への入力の数を指定します。層への入力の名前は“三机”、“in2’,……,“酒店”になります。Nは入力の数です。connectLayersまたはdisconnectLayersを使用して層の結合または切り離しを行うときには,入力名を使用します。加算層へのすべての入力の次元は同じでなければなりません。

作成

説明

= additionLayer (numInputsは,numInputs個の入力を要素単位で加算する加算層を作成します。この関数は,NumInputsプロパティも設定します。

= additionLayer (numInputs“名称”,的名字は,的名字プロパティも設定します。加算層を含むネットワークを作成するには、層の名前を指定しなければなりません。

プロパティ

すべて展開する

層への入力の数。正の整数として指定します。

入力の名前は“三机”、“in2’,……,“酒店”になります。NNumInputsに等しい値です。たとえば,NumInputsが3である場合,入力の名前は“三机”、“in2”および“in3”になります。connectLayersまたはdisconnectLayersを使用して層の結合または切り離しを行うときには,入力名を使用します。

層の名前。文字ベクトルまたは字符串スカラーとして指定します。層グラフにこの層を含めるには,層の名前を指定しなければなりません。

データ型:字符|字符串

入力名。{“三机”,“in2”,…,“客栈”}として指定します。ここで,Nは層の入力の数です。

データ型:细胞

層の出力の数。この層には単一の出力のみがあります。

データ型:

層の出力名。この層には単一の出力のみがあります。

データ型:细胞

すべて折りたたむ

2つの入力があり,名前が“add_1”である加算層を作成します。

添加= additionLayer (2“名字”“add_1”
add = AdditionLayer with properties: Name: 'add_1' NumInputs: 2 InputNames: {'in1' 'in2'}

2つのReLU層を作成し,これらの層を加算層に結合します。加算層でReLU層の出力が加算されます。

relu_1 = reluLayer (“名字”“relu_1”);relu_2 = reluLayer (“名字”“relu_2”);lgraph = layerGraph;lgraph = addLayers (lgraph relu_1);lgraph = addLayers (lgraph relu_2);lgraph = addLayers (lgraph,添加);lgraph = connectLayers (lgraph,“relu_1”“add_1 /三机一体”);lgraph = connectLayers (lgraph,“relu_2”“add_1 / in2”);情节(lgraph)

深層学習用のシンプルな有向非循環グラフ(DAG)ネットワークを作成します。数字のイメージを分類するようネットワークに学習させます。この例のシンプルなネットワークは,以下から構成されます。

  • 逐次結合層による主分岐。

  • 単一の1 x 1畳み込み層を含む“ショートカット結合”。ショートカット結合は,パラメーターの勾配がネットワークの出力層からより初期の層へとよりスムーズに流れるようにします。

ネットワークの主分岐を層配列として作成します。加算層では複数の入力が要素単位で合計されます。加算層で合計する入力数を指定します。すべての層に名前があり、すべての名前が一意でなければなりません。

[imageInputLayer([28 28 1],]),“名字”“输入”16) convolution2dLayer(5日,“填充”“相同”“名字”“conv_1”) batchNormalizationLayer (“名字”“BN_1”) reluLayer (“名字”“relu_1”32岁的)convolution2dLayer (3“填充”“相同”“步”2,“名字”“conv_2”) batchNormalizationLayer (“名字”“BN_2”) reluLayer (“名字”“relu_2”32岁的)convolution2dLayer (3“填充”“相同”“名字”“conv_3”) batchNormalizationLayer (“名字”“BN_3”) reluLayer (“名字”“relu_3”) additionLayer (2“名字”“添加”) averagePooling2dLayer (2“步”2,“名字”“avpool”) fullyConnectedLayer (10“名字”“俱乐部”) softmaxLayer (“名字”“softmax”) classificationLayer (“名字”“classOutput”));

層配列から層グラフを作成します。layerGraphのすべての層を順に結合します。層グラフをプロットします。

lgraph = layerGraph(层);图绘制(lgraph)

1 x 1畳み込み層を作成し,層グラフに追加します。活性化のサイズが“relu_3”層の活性化のサイズと一致するように,畳み込みフィルターの数とストライドを指定します。この方法により,加算層で“skipConv”層と“relu_3”層の出力を加算できます。層がグラフに含まれることを確認するには,層グラフをプロットします。

32岁的skipConv = convolution2dLayer (1“步”2,“名字”“skipConv”);lgraph = addLayers (lgraph skipConv);图绘制(lgraph)

“relu_1”層から“添加”層へのショートカット結合を作成します。層の作成時に加算層への入力数を 2 に指定しているため、層には“三机”および“in2”という名前の2つの入力があります。“relu_3”層は既に“三机”入力に結合されています。“relu_1”層を“skipConv”層に結合し,“skipConv”層を“添加”層の“in2”入力に結合します。ここで加算層は“relu_3”層と“skipConv”層の出力を合計します。層が正しく結合されていることを確認するには,層グラフをプロットします。

lgraph = connectLayers (lgraph,“relu_1”“skipConv”);lgraph = connectLayers (lgraph,“skipConv”“添加/ in2”);图绘制(lgraph);

数字の28 x 28のグレースケールイメージで構成される学習データと検証データを読み込みます。

[XTrain, YTrain] = digitTrain4DArrayData;[XValidation, YValidation] = digitTest4DArrayData;

学習オプションを指定してネットワークに学習させます。trainNetworkは,ValidationFrequency回の反復ごとに検証データを使用してネットワークを検証します。

选择= trainingOptions (“个”...“MaxEpochs”8...“洗牌”“every-epoch”...“ValidationData”{XValidation, YValidation},...“ValidationFrequency”30岁的...“详细”假的,...“阴谋”“训练进步”);网= trainNetwork (XTrain YTrain、lgraph选项);

学習済みネットワークのプロパティを表示します。ネットワークはDAGNetworkオブジェクトになります。

net = DAGNetwork with properties: Layers: [16×1 net.cnn.layer. layer] Connections: [16×2 table] InputNames: {'input'} OutputNames: {'classOutput'}

検証イメージを分類し,精度を計算します。ネットワークは非常に正確になっています。

YPredicted =分类(净,XValidation);精度=平均值(YPredicted == YValidation)
精度= 0.9930

拡張機能

C / c++コード生成
MATLAB®编码器™を使用してCおよびc++コードを生成します。

GPUコード生成
GPU编码器™を使用してNVIDIA GPU®のためのCUDA®コードを生成します。

R2017bで導入