Main Content

このページの翻訳は最新ではありませ。

setl2factor.

层の学习可なののl2正则化学数号の

说明

layer= setL2Factor(layerParameterName.因素的)は、layerParameterName.という名前のパラメーターののL2正则化系数号因素に设定します。

组み込みする层の合并,対応するプロパティを使してたとえば,convolution2dLayer层のの合,构文tillay = setl2factor(图层,'权重',因子)layer.WeightL2Factor = factorと等価です。

distractupdated.= setL2Factor(layerParameterPath.因素的)は,パスParameterPath.で指定されたパラメーターの L2 正則化係数を設定します。この構文は、パラメーターがカスタム層のdlnetwork.オブジェクトにあるときとき使使。

dlnetUpdated= setL2Factor(dlnetlayerNameParameterName.因素的)は,指定されたdlnetwork.オブジェクトのlayerNameという名前の层の、ParameterName.という名前のパラメーターののL2正则化系数号設定します。

dlnetUpdated= setL2Factor(dlnetParameterPath.因素的)は,パスParameterPath.で指定されたのl2正则化学数码设定このは。

すべて折りたたむ

层の学习可能なパラメーターのL2正则化系数を设定および取得します。

このこの例にサポートサポートファイルとして添付されているカスタムカスタム前列腺素をを含む层配列するにはは层にアクセスするに,この例をライブとしてとして开口ます。

カスタム层前列腺素を含む层配列を作物成し。

层= [......ImageInputLayer([28 28 1])卷积2.Dlayer(5,20)BatchnormalizationLayer Prelulayer(20)全连接层(10)SoftMaxLayer分类层];

前列腺素の学习可パラメーターΑのL2正氢气数を 2 に設定します。

layers(4) = setL2Factor(layers(4),“Α”,2);

新疆された则则ししししします。

因素= getL2Factor(layers(4),“Α”的)
因素= 2

入れ子层の学习可能なパラメーターのL2正则化系数を设定して取得します。

このこの例にサポートサポートファイルとして添付されているカスタムカスタムresidualBlockLayerを使用して、残差ブロック層を作成します。このファイルにアクセスするには、この例をライブ スクリプトとして開きます。

numFilters = 64; layer = residualBlockLayer(numFilters)
层= residualBlockLayer与属性:名称: '' 可学习参数网络:[1x1的dlnetwork]状态参数No特性。显示所有属性

入れ子ネットワークの层を表示します。

layer.network.layers.
ans x1 = 7层与层:数组1 conv1康沃变频器lution 64 3x3 convolutions with stride [1 1] and padding 'same' 2 'gn1' Group Normalization Group normalization 3 'relu1' ReLU ReLU 4 'conv2' Convolution 64 3x3 convolutions with stride [1 1] and padding 'same' 5 'gn2' Group Normalization Group normalization 6 'add' Addition Element-wise addition of 2 inputs 7 'relu2' ReLU ReLU

关节有关部setl2factor.を使用して,层'conv1'の学习可なパラメーター'重量'のL2正氢气数を 2 に設定します。

因子= 2;tillay = setl2factor(图层,'Network/conv1/Weights',因素);

关节有关部getL2Factorをを使し,更新されたl2正则化学数号を取得します。

因素= getL2Factor(layer,'Network/conv1/Weights'的)
因素= 2

dlnetwork.オブジェクトの学习可能なパラメーターのL2正则化系数を设定して取得します。

dlnetwork.オブジェクトを作成します。

层= [imageInputLayer([28 28 1],'正常化''没有''姓名''在')卷积2dlayer(5,20,'姓名''conv')BatchnormalizationLayer('姓名''bn')剥离('姓名''relu'的)fullyConnectedLayer(10,'姓名''fc')softmaxlayer('姓名''sm')];lgraph = layerGraph(layers); dlnet = dlnetwork(lgraph);

关节有关部setl2factor.を使用して、畳み込み層の'重量'学习可能ののL2正则化系数号2に设定します。

因子= 2;dlnet = setl2factor(dlnet,'conv''重量',因素);

关节有关部getL2Factorをを使し,更新されたl2正则化学数号を取得します。

因子= getl2factor(dlnet,'conv''重量'的)
因素= 2

dlnetwork.オブジェクトの入れ子层の学习可能なパラメーターのL2正则化系数を设定して取得します。

このこの例にサポートサポートファイルとして添付されているカスタムカスタムresidualBlockLayerを含むdlnetwork.このこのファイルにアクセスするに,このこの例をライブスクリプトきききファイルファイルにアクセスにき。

InputSize = [224 224 3];numfilters = 32;numclasses = 5;图层= [ImageInputLayer(InputSize,'正常化''没有''姓名''在')卷积2dlayer(7,numfilters,'走吧'那2那'填充''same''姓名''conv')GroupnormalizationLayer('all-channels''姓名''GN')剥离('姓名''relu'的)maxPooling2dLayer(3,'走吧'那2那'姓名''max')残留的块(Numfilters,'姓名''res1')残留的块(Numfilters,'姓名''Res2'的)residualBlockLayer(2*numFilters,'走吧'那2那'IncludeSkipConvolution',真的,'姓名''Res3'的)residualBlockLayer(2*numFilters,'姓名''Res4'的)residualBlockLayer(4*numFilters,'走吧'那2那'IncludeSkipConvolution',真的,'姓名''Res5'的)residualBlockLayer(4*numFilters,'姓名''Res6')GlobalaveragePooling2dlayer('姓名''差距'的)fullyConnectedLayer(numClasses,'姓名''fc')softmaxlayer('姓名''sm')];dlnet = dlnetwork(图层);

dlnetwork.オブジェクトの学习劳动プロパティは,ネットワークネットワーク学习可以ながが格式さたたこのには,入れ子层のが别の行に含まててます层"res1"の学习可能なパラメーターを表示します。

learnables = dlnet.Learnables; idx = learnables.Layer =="res1";了解(IDX,:)
ANS =.8×3表Layer Parameter Value ______ _______________________ ___________________ "res1" "Network/conv1/Weights" {3x3x32x32 dlarray} "res1" "Network/conv1/Bias" {1x1x32 dlarray} "res1" "Network/gn1/Offset" {1x1x32 dlarray} "res1" "Network/gn1/Scale" {1x1x32 dlarray} "res1" "Network/conv2/Weights" {3x3x32x32 dlarray} "res1" "Network/conv2/Bias" {1x1x32 dlarray} "res1" "Network/gn2/Offset" {1x1x32 dlarray} "res1" "Network/gn2/Scale" {1x1x32 dlarray}

"res1"について、関数setl2factor.を使用して,层'conv1'の学习可なパラメーター'重量'のL2正氢气数を 2 に設定します。

因子= 2;dlnet = setl2factor(dlnet,'Res1 / Network / Conv1 /重量',因素);

关节有关部getL2Factorをを使し,更新されたl2正则化学数号を取得します。

因子= getl2factor(dlnet,'Res1 / Network / Conv1 /重量'的)
因素= 2

入力数

すべて折りたたむ

入力层。スカラーLayerオブジェクトとして指定します。

パラメーター名。文字ベクトルまたは string スカラーとして指定します。

パラメーターのL2正氢化纸数。

このこの则化ててのたとえばされれれれれれれれれれれれれれれれれれれれれれされれれれれれれれれれれれれれれれれれれれれれれれれれれれれれれれれれれれれれたとえば因素が2の场合,指定されれパラメーターL2正则化はL2正则化のの倍にます。グローバルL2正则。trainingOptionsを使用して指定できます。

例:2

入れ子層のパラメーターへのパス。string スカラーまたは文字ベクトルとして指定します。入れ子層は、それ自体が層グラフを学習可能なパラメーターとして定義するカスタム層です。

setl2factor.へのの力がが子层であるである料,パラメーターパラメーターは“propertyname / layername / parametername”ここの形式になり。

  • propertyname.は、dlnetwork.オブジェクトが格式されたた名前

  • layerNameは、dlnetwork.オブジェクトオブジェクト内の层名前

  • ParameterName.は,パラメーターの名前

入れ子层のレベルレベルがあるある合并は,"propertyName1/layerName1/.../propertyNameN/layerNameN/parameterName"のの形式で各レベルを指定しますしで,propertyname1.layername1.は关节setl2factor.に対する入力の层に対応し,后続の部分はさらに深层のレベルに対応します。

例:setl2factor.に対するに対する力では,パス“网络/ conv1 / weights”tillay.network.によって指定されたdlnetwork.オブジェクト内の“conv1”という名前の层の“重量”パラメーターを指定します。

setl2factor.に対する入力がdlnetwork.オブジェクトであり、目的のパラメーターが入れ子層の中にある場合、パラメーター パスは“layername1 / propertyName / layername / parametername”ここの形式になり。

  • layername1.は,入力dlnetwork.オブジェクトオブジェクト内の层名前

  • propertyname.は、dlnetwork.オブジェクトが格式され层层の

  • layerNameは、dlnetwork.オブジェクトオブジェクト内の层名前

  • ParameterName.は,パラメーターの名前

入れ子层のレベルレベルがあるある合并は,“LayerName1 / propertyName1 / 1/./ layernamen / processnamen / layername / parametername”のの形式で各レベルを指定しますしで,layername1.propertyname1.は关节setl2factor.に対する入力の层に対応し,后続の部分はさらに深层のレベルに対応します。

例:setl2factor.に対するdlnetwork.入力では、パス“Res1 / Network / Conv1 /权重”tillay.network.によって指定されたdlnetwork.オブジェクト内の“conv1”という名前の层の“重量”パラメーターを指定します。ここここlayerは入力ネットワークdlnet"res1"という名前の层です。

データ型:char|细绳

カスタム学习ループのネットワーク。dlnetwork.オブジェクトとして指定します。

层の名前.stringスカラーまたは文字ベクトルとして指定します。

データ型:char|细绳

出力数

すべて折りたたむ

更新された层。Layerとして返されます。

更新されたネットワーク。dlnetwork.として返されます。

バージョン履歴

R2017b で導入