主要内容

このページの翻訳は最新ではありません。ここをクリックして,英語の最新版を参照してください。

getLearnRateFactor

层の学习可なパラメーターの学习率率の取得

説明

因素= getLearnRateFactor (parameterNameは,parameterNameという名前の学習可能なパラメーターの学習率係数を返します。

組み込みの層の場合,対応するプロパティを使用して学習率係数を直接取得できます。たとえば,Convolution2Dlayer.層の場合,構文因素= getLearnRateFactor(层,“权重”)因子= tillay.weightlearnratefactor.ととです。

因素= getLearnRateFactor (parameterPathは,パスparameterPathで指定されたパラメーターの学習率係数を返します。この構文は,パラメーターがカスタム層のdlnetworkオブジェクトにあるときに使用します。

因素= getLearnRateFactor (DLNET.layername.parameterNameは,指定されたdlnetworkオブジェクトのlayername.という名前の層のparameterNameという名前のパラメーターの习率率率をます。

因素= getLearnRateFactor (DLNET.parameterPathは,パスparameterPathこので指定されたたのの习率率系を返し返しこの构は,パラメーターがが子のにあるときに使使し。

すべて折りたたむ

カスタムPReLU層の学習可能なパラメーターの学習率係数を設定および取得します。

カスタムPReLU層を定義します。この層を作成するには,ファイルpreluLayer.mを现出处于ののフォルダーに保存しし。

カスタム層preluLayerを含む層配列を作成します。

层= [...imageInputLayer([28 28 1])卷积2dlayer(5,20)BatchnormalizationLayer Prelulayer(20,'prelu')全连接层(10)SoftmaxLayer分类层];

preluLayerの学習可能なパラメーター'Α'の学习率系数号2に设定します。

层(4)= setLearnRateFactor(层(4),'Α'2);

更新された学習率係数を表示します。

因子= getLearnratefactor(图层(4),'Α'
因子= 2

入れ子層の学習可能なパラメーターの学習率係数を設定して取得します。

この例にサポートファイルとして添付されているカスタム層ResidualblockLayer.をを层て作品成し。このこのファイルにアクセスするに,この例をアクセスは,このこの例をライブスクリプトスクリプトきき。

inputSize = [224 224 64];numFilters = 64;层= residualBlockLayer (inputSize numFilters)
“Learnable Parameters Network: [1x1 dlnetwork] Show all properties .

入れ子ネットワークの層を表示します。

layer.Network.Layers
ans = 8x1图层数组:1 '的形象输入224 x224x64图片2的conv1卷积64 3 x3x64旋转步[1]和填充“相同”3“gn1”集团标准化规范化与64个频道分为1组4“relu1”ReLU ReLU 5 conv2卷积64 3 x3x64旋转步[1]和填充“相同”6 gn2组标准化组将64个通道分成64组,进行归一化处理7 '添加'添加按元素添加2个输入8 'relu2' ReLU

関数setLearnRateFactorを使用して層'conv1'の学習可能なパラメーター“重量”の学习率系数号2に设定します。

因素= 2;一层一层= setLearnRateFactor (,'网络/ conv1 / weights'、因素);

関数getLearnRateFactorを使用して,更新された学習率係数を取得します。

因素= getLearnRateFactor(层,'网络/ conv1 / weights'
因子= 2

dlnetworkオブジェクトの学習可能なパラメーターの学習率係数を設定して取得します。

dlnetworkオブジェクトを作成します。

图层= [imageInputLayer([28 28 1],“归一化”“没有”“名字”“在”20岁的)convolution2dLayer (5“名字”'conv') batchNormalizationLayer (“名字”'bn') reluLayer (“名字”'relu')全连接层(10,“名字”'fc') softmaxLayer (“名字”“sm”)];Lgraph = LayerGraph(层);dlnet = dlnetwork(3);

関数setLearnRateFactorをを用し,畳み込み层の“重量”学習可能パラメーターの学習率係数を2に設定します。

因素= 2;dlnet = setLearnRateFactor (dlnet,'conv'“重量”、因素);

関数getLearnRateFactorを使用して,更新された学習率係数を取得します。

因子= getLearnratefactor(Dlnet,'conv'“重量”
因子= 2

dlnetworkオブジェクトの入れ子層の学習可能なパラメーターの学習率係数を設定して取得します。

この例にサポートファイルとして添付されているカスタム層ResidualblockLayer.を含むdlnetworkオブジェクトを作成します。このファイルにアクセスするには,この例をライブスクリプトとして開きます。

inputSize = [224 224 3];numFilters = 32;numClasses = 5;[imageInputLayer(inputSize,“归一化”“没有”“名字”“在”numFilters) convolution2dLayer(7日,“步”2,“填充”'相同的'“名字”'conv') groupNormalizationLayer ('全频道'“名字”“gn”) reluLayer (“名字”'relu')maxpooling2dlayer(3,“步”2,“名字”'最大限度') residualBlockLayer([56 56 numFilters],numFilters,“名字”'Res1') residualBlockLayer([56 56 numFilters],numFilters,“名字”“它”) residualBlockLayer([56 56 numFilters],2*numFilters,“步”2,'包括kipconvolution',真的,“名字”“res3”)残留块([28 28 2 * numfilters],2 * numfilters,“名字”“res4”)残留块([28 28 2 * numfilters],4 * numfilters,“步”2,'包括kipconvolution',真的,“名字”“res5”)残留块([14 14 4 * numfilters],4 * numfilters,“名字”“res6”) globalAveragePooling2dLayer (“名字”“差距”)全连接列(numcrasses,“名字”'fc') softmaxLayer (“名字”“sm”)];Lgraph = LayerGraph(层);dlnet = dlnetwork(3);

'Res1'の入れ子ネットワークの層を表示します。

dlnet.Layers .Network.Layers (6)
ANS = 8x1层阵列具有图层:1'IN'图像输入56x56x32图像2'CONV1'卷积32 3x3x32卷绕卷曲[11]和填充'相同的'3'GN1'组标准化组标准化,32个通道分为1组4'Relu1'Relu Relu 5'Conv2'卷积32 3x3x32卷积与步幅[11]和填充'相同的'6'GN2'组归一化组标准化,32个通道分为32组7'添加'添加元素 - 方向添加2输入8'Relu2'Relu Relu

関数setLearnRateFactorを使用して層'conv1'の学習可能なパラメーター“重量”の学习率系数号2に设定します。

因素= 2;dlnet = setLearnRateFactor (dlnet,“res1 /网络/ conv1 /重量”、因素);

関数getLearnRateFactorを使用して,更新された学習率係数を取得します。

因子= getLearnratefactor(Dlnet,“res1 /网络/ conv1 /重量”
因子= 2

入力引数

すべて折りたたむ

入力层。スカラーオブジェクトとして指定します。

パラメーター名。文件ベクトルまたは弦スカラーとして指定します。

入れ子层のパスパススカラーまたはますしします。入れ子は,それ自体が层グラフを习能层层层层层层层层层层层层层层层层

getLearnRateFactorへの入力が入れ子層である場合,パラメーターパスは“propertyName / layerName / parameterName”の形式になります。ここで,

  • propertyNameは,dlnetworkオブジェクトが格納されたプロパティの名前

  • layername.は,dlnetworkオブジェクト内の層の名前

  • parameterNameは,パラメーターの名前

入れ子層のレベルが複数ある場合は,“propertyName1 / layerName1 /…/ propertyNameN / layerNameN / parameterName”の形式で各レベルを指定します。ここで,propertyName1layerName1が关节getLearnRateFactorに対するに対する力量のに対応,后続后続の分が深层レベルににします。

例:getLearnRateFactorに対する層入力では,パス“网络/ conv1 /重量”は,层。网络によって指定されたdlnetworkオブジェクト内の“conv1”という名前の層の“重量”パラメーターを指定します。

getLearnRateFactorに対するに対する力量dlnetworkオブジェクトであり,目的のパラメーターが入れ子の中にあるある合,パラメーターパスは“layerName1 / propertyName / layerName / parameterName”の形式になります。ここで,

  • layerName1は,入力dlnetworkオブジェクト内の層の名前

  • propertyNameは,dlnetworkオブジェクトが格納された層のプロパティ

  • layername.は,dlnetworkオブジェクト内の層の名前

  • parameterNameは,パラメーターの名前

入れ子層のレベルが複数ある場合は,“layerName1 / propertyName1 /…/ layerNameN / propertyNameN / layerName / parameterName”の形式で各レベルを指定します。ここで,layerName1propertyName1が关节getLearnRateFactorに対するに対する力量のに対応,后続后続の分が深层レベルににします。

例:getLearnRateFactorに対するdlnetwork入力では,パス“res1 /网络/ conv1 /重量”は,层。网络によって指定されたdlnetworkオブジェクト内の“conv1”という名前の層の“重量”パラメーターを指定します。ここではは力量DLNET.“Res1”という名前の層です。

データ型:char|字符串

カスタム学習ループのネットワーク。dlnetworkオブジェクトとして指定します。

層の名前。字符串スカラーまたは文字ベクトルとして指定します。

データ型:char|字符串

出力引数

すべて折りたたむ

パラメーターパラメーター学习率率数。

この係数にグローバル学習率が乗算されて,指定されたパラメーターの学習率が決定されます。たとえば,因素が2の场合,指定指定されたパラメーターのの习率は现现现は率率率のののになりののなりなりなりなりなりなり培训选项で指定された設定に基づいて,グローバル学習率が決定されます。

R2017Bで导入