主要内容

。

Dagnetwork.

深层学习用途の有向非循环(DAG)ネットワーク

说明

DAGネットワ​​ークは,层が有象非循环グラフ配置され深层深层习のニューラルネットワークです.dagネットワークは,层层はののからののおよびおよびの层のの力がを持つことができます。

作作者

Dagnetwork.オブジェクトは,次のようにいくつか方法で

メモ

他の事前学习済み済みネットワークについては,事前学习済みの深层深层ネットワークネットワークを参照してください。

プロパティ

すべて展开する

ネットワーク层。配列として指定します。

层层结合.2列の表として指定指定ますます。

各表行はは层グラフ层グラフのののを表し表し111の来源は,各结合ののの指定します.2列目の目的地は,各结合ののを指定します。结合元とと先先はの名前であるか,'layername / ioname'の形式を取ります。'ionamam'は层のの力またはまたは力の名前。

データ型:桌子

ネットワークネットワーク力量层名前。文件字の细胞配列として指定します。

データ型:细胞

ネットワークネットワーク力量层名前。文件字の细胞配列として指定します。

データ型:细胞

オブジェクト关节

激活 深层学习ネットワーク层ののの化计算
分类 学校済み深层学习习ネットワークを使使使使たデータのの分享
预测 学习済み深层学习习ネットワークを使使使し応答の予测
阴谋 ニューラルニューラルネットワークの层层グラフの

すべて折りたたむ

深层学习ののシンプル非循环循环しネットワークネットワーク习シンプルせは,以例シンプルなは,以この习なは,以例のさネットワーク,以以のシンプルネットワークは,以以例のシンプルネットワークははネットワークにのをを类はようネットワークにをを类はなネットワークにをを类类な向向非非循环シンプル向深层

  • 逐次结合层によるによるによる分。

  • 単一の1 x 1畳み込み层を含む“ショートショート综合”。ショートショートカット合,パラメーターパラメーターの勾配がネットワークのの层からよりより初のへとよりスムーズに流れるにしスムーズししししししし

ネットワークのの分ををとして作用成します。加算で要素でのれれますれますますますますます。すべてします。すべての层名前が,すべての名前一道でなければなりません。

图层= [imageInputLayer([28 28 1],'名称''输入')卷积2dlayer(5,16,'填充''相同的''名称''conv_1'batchnormalizationlayer('名称''bn_1')剥离('名称''relu_1')卷积2dlayer(3,32,'填充''相同的''走吧'2,'名称''conv_2'batchnormalizationlayer('名称''bn_2')剥离('名称''relu_2')卷积2dlayer(3,32,'填充''相同的''名称''conv_3'batchnormalizationlayer('名称''bn_3')剥离('名称''relu_3')附加层(2,'名称''添加')普通Pooling2dlayer(2,'走吧'2,'名称''avpool')全连接层(10,'名称''fc')softmaxlayer('名称''softmax'scassificationlayer('名称''ClassOutpul')];

层配列からから层层作作作者分层图层数ののすべての层を顺に结ししし层グラフをプロットししにグラフををしし

Lgraph = LayerGraph(层);图绘图(LGROP)

1 x 1畳み込み层を作用成し,层グラフに追加。'relu_3'こののするに,畳み込み畳み込みの数とストライドを指定ししししししし。'skipconv'层と'relu_3'层のの力量をでき。

Skipconv = Convolution2Dlayer(1,32,'走吧'2,'名称''skipconv');Lgraph = Addlayers(LAPHAGH,SKIPCONV);图绘图(LGROP)

'relu_1'层から'添加'层へのショートカットカット合成作物します。层层作用成时に加入层のののををため,层には'in1'および'in2'という名前の2つのつの力があり。'relu_3'层は既に'in1'入力に结合さててます。'relu_1'层を'skipconv'层に结合し,'skipconv'层を'添加'层の'in2'入力に结合しし。ここここ加入层は'relu_3'层と'skipconv'层が正しくししていることことする,层グラフをします,层グラフをプロットます。

Lgraph = ConnectLayers(LAPHAGE,'relu_1''skipconv');Lgraph = ConnectLayers(LAPHAGE,'skipconv''添加/ in2');图图(LGraph);

数字の28 x 28ののグレースケールイメージで构さされる习データと検证データを読み込み読み込み読み込み読み込み読み込み読み込み

[xtrain,ytrain] = Digittrain4darraydata;[xvalidation,yvalidation] = dimittest4darraydata;

学习习オプションをしててネットワーク习习させます。Trainnetwork.は,验证频繁回の反复ごとに検证データを使用してネットワークを検证します。

选项=培训选项('sgdm'......'maxepochs',8,......'洗牌''每个时代'......'vightationdata',{xvalidation,yvalidation},......'验证职业',30,......'verbose',错误的,......'plots''培训 - 进步');net = trainnetwork(xtrain,ytrain,3.选项);

学习済みネットワークのプロパティを表示しますますネットワークはDagnetwork.オブジェクトになります。

net =具有属性的Dagnetwork:图层:[16×1 nnet.cnn.layer.layer]连接:[16×2表]输入名称:{'输入'} OutputNames:{'classOutput'}

検证イメージを分类し,精度を计算します。ネットワークは非常に正确になっています。

ypredictict =分类(net,xvalidation);精度=均值(ypredicted == yvalidation)
精度= 0.9930.

拡张机械

R2017Bで导入