Main Content

このページ最新ではありませ。をクリックし,英语のの最新版版を参照参照。。

getLearnrateFactor

层の学習可能なパラメーターの学習率係数の取得

说明

因素= getLearnrateFactor(,,,,参数名称は、参数名称という名前学习なの学习率を返します。

组み込みの场合対応するをして学习系数を直接直接取得できできます。convolution2dLayer层の场合构文因子= getLealelnrateFactor(层,“权重”)因素= layer.WeightLearnRateFactorと等価です。

因素= getLearnrateFactor(,,,,参数路径は,パス参数路径でさたの学习系数をます。构文は,パラメーターががのののdlnetworkオブジェクトにときに使用。。

因素= getLearnrateFactor(dlnet,,,,层Name,,,,参数名称は,指定れたdlnetworkオブジェクトの层Nameという名前のの参数名称という名前のパラメーターの学習率係数を返します。

因素= getLearnrateFactor(dlnet,,,,参数路径は,パス参数路径で指定されたパラメーターの学習率係数を返します。この構文は、パラメーターが入れ子の層にあるときに使用します。

すべて折りたたむ

prelu prelu层学习可能なの学习系数を设定取得し。。

この例サポートとして添付れているカスタム层预列者を含む作成しますこのにアクセスするは,このこの例ををライブスクリプトスクリプトとして。

层= [...ImageInputlayer([28 28 1])卷积2Dlayer(5,20)batchnormalizationlayer预列器(20)plullconnectedlayer(10)soft -maxlayer classificationlayer];

预列者の学习可能パラメーターΑの学習率係数を 2 に設定します。

层(4)= setLearnrateFactor(层(4),,“Α”,2);

更新さた率系数表示します。

因素= getLearnrateFactor(层s(4),“Α”
因素= 2

入れ子层可能パラメーターの学习率设定して取得し。

この例サポートとして添付れているカスタム层residualBlockLayerを使用して、残差ブロック層を作成します。このファイルにアクセスするには、この例をライブ スクリプトとして開きます。

numFilters = 64; layer = residualBlockLayer(numFilters)
layer =带有属性的残留模块:名称:''可学习参数网络:[1x1 dlnetwork]状态参数无属性。显示所有属性

入れ子ネットワーク层を表示。。

layer.network.layers
ANS = 7x1层阵列,带有层:1'Conv1'卷积64 3x3卷积,大步[1 1]和填充'相同的'2'gn1'gn1'组标准化组标准化3'relu1'relu 4'relu 4'convolture 64 3x3卷积64 3x3卷积步幅[1 1]和填充'相同5'GN2'组归一化组标准化6'添加“加法元素添加2个输入7'relu2'relu relu relu relu

关数setLearnrateFactorを使用し,层'conv1'の学习可能パラメーター“重量”の学習率係数を 2 に設定します。

因子= 2;layer = setLearnrateFactor(层,'Network/conv1/Weights',因素);

关数getLearnrateFactorを使用,更新れた学习系数取得取得ますます。

因子= getLearnrateFactor(层,'Network/conv1/Weights'
因素= 2

dlnetworkオブジェクトのなの学习率系数して取得し。。

dlnetworkオブジェクトを作成します。

层= [imageInputLayer([28 28 1],'正常化',,,,'没有任何',,,,'姓名',,,,'在')卷积2Dlayer(5,20,,'姓名',,,,'conv')batchnormalizationlayer('姓名',,,,'bn')relulayer('姓名',,,,'relu')fullyConnectedLayer(10,'姓名',,,,'fc')SoftMaxlayer('姓名',,,,'sm');lgraph = layerGraph(layers); dlnet = dlnetwork(lgraph);

关数setLearnrateFactorを使用して、畳み込み層の“重量”学习可能の率系ををををにに设定。。。

因子= 2;dlnet = setLearnrateFactor(dlnet,'conv',,,,“重量”,因素);

关数getLearnrateFactorを使用,更新れた学习系数取得取得ますます。

因素= getLearnrateFactor(dlnet,'conv',,,,“重量”
因素= 2

dlnetworkオブジェクトのの可能なパラメーターの率を设定してします。

この例サポートとして添付れているカスタム层residualBlockLayerを含むdlnetworkオブジェクト作成ますこのファイルアクセスするは,例をライブスクリプトとしてとして。。。

inputsize = [224 224 3];numfilters = 32;数字= 5;layers = [imageInputlayer(inputsize,'正常化',,,,'没有任何',,,,'姓名',,,,'在')卷积2Dlayer(7,数字,“大步”,,,,2,'填充',,,,'same',,,,'姓名',,,,'conv')groupnormalizationlayer('all-channels',,,,'姓名',,,,'gn')relulayer('姓名',,,,'relu')maxPooling2dLayer(3,“大步”,,,,2,'姓名',,,,'max')残留物(numfilters,'姓名',,,,'res1')残留物(numfilters,'姓名',,,,'res2')residualBlockLayer(2*numFilters,“大步”,,,,2,'IncludeSkipConvolution',真的,'姓名',,,,'res3')residualBlockLayer(2*numFilters,'姓名',,,,'res4')residualBlockLayer(4*numFilters,“大步”,,,,2,'IncludeSkipConvolution',真的,'姓名',,,,'res5')residualBlockLayer(4*numFilters,'姓名',,,,'res6')globalaveragepooling2dlayer('姓名',,,,'差距')fullyConnectedLayer(numClasses,'姓名',,,,'fc')SoftMaxlayer('姓名',,,,'sm');dlnet = dlnetwork(层);

'res1'の入れ子の层表示します。

dlnet.layers(6).network.layers
ans = 7x1 Layer array with layers: 1 'conv1' Convolution 32 3x3x32 convolutions with stride [1 1] and padding 'same' 2 'gn1' Group Normalization Group normalization with 32 channels split into 1 groups 3 'relu1' ReLU ReLU 4 'conv2' Convolution 32 3x3x32 convolutions with stride [1 1] and padding 'same' 5 'gn2' Group Normalization Group normalization with 32 channels split into 32 groups 6 'add' Addition Element-wise addition of 2 inputs 7 'relu2' ReLU ReLU

关数setLearnrateFactorを使用し,层'conv1'の学习可能パラメーター“重量”の学習率係数を 2 に設定します。

因子= 2;dlnet = setLearnrateFactor(dlnet,'res1/network/conv1/权重',因素);

关数getLearnrateFactorを使用,更新れた学习系数取得取得ますます。

因素= getLearnrateFactor(dlnet,'res1/network/conv1/权重'
因素= 2

入力引数

すべて折りたたむ

入力层。スカラーLayerオブジェクトとして指定ます。

パラメーター名。文字ベクトルまたは string スカラーとして指定します。

入れ子层のパラメーターのパス。string スカラーまたは文字ベクトルとして指定します。入れ子層は、それ自体が層グラフを学習可能なパラメーターとして定義するカスタム層です。

getLearnrateFactorへのがである场合,パラメーターはは“ propertyName/layername/parametername”の形式なりここで,以下ようになります。

  • 属性名称は、dlnetworkオブジェクトがされた名前名前

  • 层Nameは、dlnetworkオブジェクト内のの名前

  • 参数名称は,パラメーター名前

入れ子层のが复数ある,,“ propertyName1/layername1 /.../ propertyNamen/layernamen/parametername”の形式各を指定ます。ここで,PropertyName1LaserName1は关数getLearnrateFactorに対する入力にし,后続部分は深层レベルに対応対応ます。

例:getLearnrateFactorに対する层入力で,パス“网络/conv1/权重”が,layer.networkによって指定されたdlnetworkオブジェクト内の“ conv1”という名前のの“重量”パラメーターを指定ます。

getLearnrateFactorに対する入力がdlnetworkオブジェクトであり、目的のパラメーターが入れ子層の中にある場合、パラメーター パスは“ layername1/propertyName/layername/parametername”の形式なりここで,以下ようになります。

  • LaserName1は,入力dlnetworkオブジェクト内のの名前

  • 属性名称は、dlnetworkオブジェクトがされたプロパティプロパティ

  • 层Nameは、dlnetworkオブジェクト内のの名前

  • 参数名称は,パラメーター名前

入れ子层のが复数ある,,“ layername1/propertyName1 /.../ layernamen/propertyNamen/layername/parametername”の形式各を指定ます。ここで,LaserName1PropertyName1は关数getLearnrateFactorに対する入力にし,后続部分は深层レベルに対応対応ます。

例:getLearnrateFactorに対するdlnetwork入力では、パス“ res1/network/conv1/权重”が,layer.networkによって指定されたdlnetworkオブジェクト内の“ conv1”という名前のの“重量”パラメーターをします。ででは入力ネットワークdlnet"res1"という名前のです。

データ型:char|细绳

カスタム学习ループネットワーク。dlnetworkオブジェクトとして指定ます。

层。。。スカラー文字ベクトルとしてし。。。

データ型:char|细绳

出力引数

すべて折りたたむ

パラメーターの学習率係数。非負のスカラーとして返されます。

この系数学习が乘算れ,指定れたパラメーターの学习率がが决定ささ。。。因素が 2 の場合、指定されたパラメーターの学習率は現在のグローバル学習率の 2 倍になります。関数trainingOptionsで指定たに基づいて,率が决定され。

バージョン履歴

R2017b で導入