主要内容

getL2Factor

得到了L2正则化因子层可学的参数

描述

例子

因素= getL2Factor (,parameterName)返回的L2正则化因子参数的名称parameterName

对于内置的层,可以得到L2正则化因子直接通过使用相应的属性。例如,对于一个convolution2dLayer层,语法因素= getL2Factor(层,“权重”)相当于因素= layer.WeightL2Factor

例子

因素= getL2Factor (,parameterPath)返回的L2正则化因子参数指定的路径parameterPath。使用这个参数时语法dlnetwork对象在一个自定义层。

例子

因素= getL2Factor (,layerName,parameterName)返回的L2正则化因子参数的名称parameterName层的名字layerName为指定的dlnetwork对象。

例子

因素= getL2Factor (,parameterPath)返回的L2正则化因子参数指定的路径parameterPath。使用这种语法的参数是一个嵌套层。

例子

全部折叠

设置和获取的L2正则化因子可学的一层的参数。

创建一个包含自定义层的层数组preluLayer,在这个例子作为支持文件。金宝app进入这一层,打开这个例子作为一个活的脚本。

创建一个层阵列包括自定义层preluLayer

层= [imageInputLayer([1] 28日28日)convolution2dLayer (5、20) batchNormalizationLayer preluLayer fullyConnectedLayer (10) softmaxLayer classificationLayer];

设置的L2正则化因子α可学的参数的preluLayer2。

层(4)= setL2Factor(层(4),“阿尔法”2);

查看更新L2正则化因子。

因素= getL2Factor(层(4),“阿尔法”)
因素= 2

设置和获取的L2正则化因子可学的一个嵌套层的参数。

使用自定义创建一个剩余块层层residualBlockLayer这个例子作为支持文件。金宝app访问这个文件,打开这个例子作为一个活的脚本。

numFilters = 64;层= residualBlockLayer (numFilters)
层= residualBlockLayer属性:名称:“可学的参数网络:[1 x1 dlnetwork]网络状态参数:[1 x1 dlnetwork]显示所有属性

视图层的嵌套网络。

layer.Network.Layers
ans x1 = 7层与层:数组1 conv_1二维卷积64 3 x3的隆起与步幅[1]和填充“相同”2“batchnorm_1”批量标准化批量标准化3‘relu_1 ReLU ReLU 4 conv_2二维卷积64 3 x3的隆起与步幅[1]和填充“相同”5“batchnorm_2”批量标准化批量标准化6‘添加’除了Element-wise添加2输入7‘relu_2 ReLU ReLU

的L2正则化因子可学的参数设置“重量”层的“conv_1”2使用setL2Factor函数。

因素= 2;一层一层= setL2Factor (,“网络/ conv_1 /重量”、因素);

得到更新后的L2正则化因子使用getL2Factor函数。

因素= getL2Factor(层,“网络/ conv_1 /重量”)
因素= 2

设置和获取的L2正则化因子可学的参数dlnetwork对象。

创建一个dlnetwork对象。

层= [imageInputLayer ([28 28 1],“归一化”,“没有”,“名字”,“在”20岁的)convolution2dLayer (5“名字”,“conv”)batchNormalizationLayer (“名字”,bn的)reluLayer (“名字”,“relu”)fullyConnectedLayer (10“名字”,“俱乐部”)softmaxLayer (“名字”,“sm”));lgraph = layerGraph(层);dlnet = dlnetwork (lgraph);

设置的L2正则化因子“重量”可学的参数卷积的层使用setL2Factor函数。

因素= 2;dlnet = setL2Factor (dlnet,“conv”,“重量”、因素);

得到更新后的L2正则化因子使用getL2Factor函数。

因素= getL2Factor (dlnet,“conv”,“重量”)
因素= 2

设置和获取的L2正则化因子可学的参数的一个嵌套层dlnetwork对象。

创建一个dlnetwork对象包含自定义层residualBlockLayer这个例子作为支持文件。金宝app访问这个文件,打开这个例子作为一个活的脚本。

inputSize = (224 224 3);numFilters = 32;numClasses = 5;层= [imageInputLayer inputSize,“归一化”,“没有”,“名字”,“在”numFilters) convolution2dLayer(7日,“步”2,“填充”,“相同”,“名字”,“conv”)groupNormalizationLayer (所有渠道的,“名字”,“gn”)reluLayer (“名字”,“relu”)maxPooling2dLayer (3“步”2,“名字”,“马克斯”)residualBlockLayer (numFilters“名字”,“res1”)residualBlockLayer (numFilters“名字”,“它”)residualBlockLayer (2 * numFilters,“步”2,“IncludeSkipConvolution”,真的,“名字”,“res3”)residualBlockLayer (2 * numFilters,“名字”,“res4”)residualBlockLayer (4 * numFilters,“步”2,“IncludeSkipConvolution”,真的,“名字”,“res5”)residualBlockLayer (4 * numFilters,“名字”,“res6”)globalAveragePooling2dLayer (“名字”,“差距”)fullyConnectedLayer (numClasses“名字”,“俱乐部”)softmaxLayer (“名字”,“sm”));dlnet = dlnetwork(层);

可学的财产的dlnetwork对象是一个包含网络的可学的参数表。嵌套层的表包括参数在不同的行。视图层的可学的参数“res1”

可学的= dlnet.Learnables;idx =可学的。层= =“res1”;可学的(idx:)
ans =8×3表层参数值______ ____________________________ ___________________“res1”“网络/ conv_1 /重量”{3 x3x32x32 dlarray}“res1”“网络/ conv_1偏见”{1 x1x32 dlarray}“res1”“网络/ batchnorm_1 /抵消”{1 x1x32 dlarray}“res1”“网络/ batchnorm_1 /规模”{1 x1x32 dlarray}“res1”“网络/ conv_2 /重量”{3 x3x32x32 dlarray}“res1”“网络/ conv_2偏见”{1 x1x32 dlarray}“res1”“网络/ batchnorm_2 /抵消”{1 x1x32 dlarray}“res1”“网络/ batchnorm_2 /规模”{1 x1x32 dlarray}

的层“res1”,设置的L2正则化因子可学的参数“重量”层的“conv_1”2使用setL2Factor函数。

因素= 2;dlnet = setL2Factor (dlnet,“res1 /网络/ conv_1 /重量”、因素);

得到更新后的L2正则化因子使用getL2Factor函数。

因素= getL2Factor (dlnet,“res1 /网络/ conv_1 /重量”)
因素= 2

输入参数

全部折叠

输入层,指定为一个标量对象。

参数名称,指定为一个特征向量或一个字符串标量。

在嵌套层路径参数,指定为字符串标量或特征向量。一个嵌套层本身就是一个自定义层定义了层图作为一种可习得的参数。

如果输入getL2Factor是一个嵌套层,那么参数路径形式吗“propertyName / layerName / parameterName”,地点:

  • propertyName包含一个属性的名称是什么dlnetwork对象

  • layerName层的名称是dlnetwork对象

  • parameterName参数的名称吗

如果有多个层次的嵌套层,然后指定每个层次使用的形式“propertyName1 / layerName1 /…/ propertyNameN / layerNameN / parameterName”,在那里propertyName1layerName1对应的输入层getL2Factor功能,后续部分对应于更深层次的水平。

例子:为输入层getL2Factor,路径“网络/ conv1 /重量”指定了“重量”层的参数名称“conv1”dlnetwork对象由layer.Network

如果输入getL2Factor是一个dlnetwork对象和所需的参数是在一个嵌套层,然后参数路径的形式“layerName1 / propertyName / layerName / parameterName”,地点:

  • layerName1输入层的名称dlnetwork对象

  • propertyName层包含的财产吗dlnetwork对象

  • layerName层的名称是dlnetwork对象

  • parameterName参数的名称吗

如果有多个层次的嵌套层,然后指定每个层次使用的形式“layerName1 / propertyName1 /…/ layerNameN / propertyNameN / layerName / parameterName”,在那里layerName1propertyName1对应的输入层getL2Factor功能,后续部分对应于更深层次的水平。

例子:dlnetwork输入getL2Factor,路径“res1 /网络/ conv1 /重量”指定了“重量”层的参数名称“conv1”dlnetwork对象由layer.Network,在那里层的名字吗“res1”在输入网络

数据类型:字符|字符串

神经网络作为一个指定dlnetwork对象。

图层名称,指定为字符串标量或特征向量。

数据类型:字符|字符串

输出参数

全部折叠

L2正则化因子的参数,作为一个非负标量返回。

软件繁殖这个因素在全球L2正则化因子来确定指定的L2正则化参数。例如,如果因素是2,然后指定的L2正则化参数是当前全球L2正规化的两倍。全球软件决定了L2基于指定的设置与正规化trainingOptions函数。

版本历史

介绍了R2017b