主要内容

getl2factor.

获取层可学习参数的L2正则化因子

描述

实例

因素=getL2Factor(,参数名)返回名称为的参数的L2正则化因子参数名.

对于内置图层,您可以使用相应的属性直接获取L2正则化因子。例如,对于一个Convolution2Dlayer.层,语法因子= getl2factor(图层,'权重')相当于因子= tillay.weightl2factor..

实例

因素=getL2Factor(,参数路径)返回路径指定的参数的L2正则化因子参数路径.当参数处于A中时使用此语法dlnetwork.自定义图层中的对象。

实例

因素=getL2Factor(DLNET.,layername.,参数名)返回名称为的参数的L2正则化因子参数名在与名称的图层中layername.对于指定的dlnetwork.目的。

实例

因素=getL2Factor(DLNET.,参数路径)返回路径指定的参数的L2正则化因子参数路径. 当参数位于嵌套层中时,请使用此语法。

例子

全部收缩

设置并获取层的可学习参数的L2正则化因子。

创建包含自定义图层的图层阵列前奏者附加到这是一个支持文件的示例。金宝app要访问此图层,请将此示例打开为实时脚本。

创建一个包含自定义层的层数组前奏者.

层= [...ImageInputLayer([28 28 1])卷积2.Dlayer(5,20)BatchnormalizationLayer Prelulayer(20)全连接层(10)SoftmaxLayer分类层];

设置L2正则化因子阿尔法可学习的参数前奏者到2。

层(4)=设置系数(层(4),“阿尔法”,2);

查看更新的L2正则化因子。

因子= getl2factor(图层(4),“阿尔法”)
系数=2

设置并获取嵌套图层的学习参数的L2正则化因子。

使用自定义层创建残留块层ResidualblockLayer.将此示例附加为支持文件。金宝app要访问此文件,请将此示例打开为实时脚本。

numfilters = 64;tillay = ResidualblockLayer(NumFilters)
layer=residualBlockLayer,属性:名称:“”可学习参数网络:[1x1 dlnetwork]状态参数无属性。显示所有属性

查看嵌套网络的图层。

tillay.network.layers.
ANS = 7x1层数组,带有图层:1'CONC1'卷积64 3x3带有步幅的卷积[1 1]和填充'相同'2'GN1'组归一化组归一化3'Relu1'Relu Relu 4'Conv2'卷积64 3X3卷积步幅[1 1]和填充'相同'5'GN2'组归一化组归一化归一组标准化6'添加'添加元素 - 方面添加2个输入7'Relu2'Relu Relu

设置可学习参数的L2正则化因子“重量”图一层'conv1'使用setl2factor.作用

因子= 2;tillay = setl2factor(图层,'网络/ conv1 / weights',因子);

使用更新的L2正则化因子使用getl2factor.作用

系数=getL2Factor(层,'网络/ conv1 / weights')
系数=2

设置并获取a的可学习参数的L2正则化因子dlnetwork.目的。

创建一个dlnetwork.目的。

层=[imageInputLayer([28 1],'正常化',“没有”,“姓名”,“在”)卷积2dlayer(5,20,“姓名”,'conv')批处理规范化层(“姓名”,'bn')雷卢耶(“姓名”,“雷卢”)全连接层(10,“姓名”,'fc')softmaxlayer(“姓名”,“sm”)];Lgraph = LayerGraph(层);dlnet = dlnetwork(3);

设置L2正则化因子“重量”卷积层的可学习参数使用setl2factor.作用

因子= 2;dlnet = setl2factor(dlnet,'conv',“重量”,因子);

使用更新的L2正则化因子使用getl2factor.作用

因子= getl2factor(dlnet,'conv',“重量”)
系数=2

设置并获取嵌套图层中的L2正则化因子dlnetwork.目的。

创建一个dlnetwork.包含自定义层的对象ResidualblockLayer.将此示例附加为支持文件。金宝app要访问此文件,请将此示例打开为实时脚本。

inputSize=[2242243];numFilters=32;numclass=5;层=[imageInputLayer(inputSize,'正常化',“没有”,“姓名”,“在”)卷积2层(7,numFilters,“大步走”2,'填充','相同的',“姓名”,'conv')组规范化层('全频道',“姓名”,“gn”)雷卢耶(“姓名”,“雷卢”)maxpooling2dlayer(3,“大步走”2,“姓名”,'最大限度')残留的块状(Numfilters,“姓名”,“res1”)残留的块状(Numfilters,“姓名”,“res2”)ResidualblockLayer(2 * NumFilters,“大步走”2,'包括kipconvolution'符合事实的“姓名”,“res3”)ResidualblockLayer(2 * NumFilters,“姓名”,“res4”)ResideLBLOCKLAYER(4 * NUMFILTERS,“大步走”2,'包括kipconvolution'符合事实的“姓名”,“res5”)ResideLBLOCKLAYER(4 * NUMFILTERS,“姓名”,“res6”)GlobalAveragePoolg2Dlayer(“姓名”,“差距”)全连接列(numcrasses,“姓名”,'fc')softmaxlayer(“姓名”,“sm”)]; dlnet=dlnetwork(层);

这个可学财产的财产dlnetwork.对象是一个包含网络可学习参数的表。该表包含独立行中嵌套层的参数。查看该层的可学习参数“Res1”.

learnables = dlnet.learnables;idx = learnables.layer ==“Res1”;可学习内容(idx,:)
ans =.8×3表图层参数值_________________________________________________________“RES1”“网络/ conv1 /权重”{3x3x32x32 dlarray}“RES1”“网络/ conv1 /偏置”{1x1x32 dlarray}“RES1”“network / gn1 / offset”{1x1x32 dlarray}“RES1“”网络/ gn1 / scale“{1x1x32 dlarray}”Res1“”网络/ conv2 /权重“{3x3x32x32 dlarray}”Res1“”网络/ conv2 / bias“{1x1x32 dlarray}”Res1“”Network / Gn2 / offset“{1x1x32 dlarray}“Res1”“网络/ GN2 / SCALE”{1x1x32 dlarray}

对于图层“Res1”,设置可学习参数的L2正则化因子“重量”图一层'conv1'使用setl2factor.作用

因子= 2;dlnet = setl2factor(dlnet,'Res1 / Network / Conv1 / Weights',因子);

使用更新的L2正则化因子使用getl2factor.作用

因子= getl2factor(dlnet,'Res1 / Network / Conv1 / Weights')
系数=2

输入参数

全部收缩

输入层,指定为标量目的。

参数名称,指定为字符向量或字符串标量。

嵌套图层中参数的路径,指定为字符串标量或字符向量。嵌套图层是自定义层,其自身将图层图定义为可被动参数。

如果输入为getl2factor.如果是嵌套层,则参数路径的形式为“propertyName/layerName/parameterName”,其中:

  • 属性名称是包含a的属性的名称dlnetwork.对象

  • layername.中图层的名称dlnetwork.对象

  • 参数名是参数的名称

如果有多个嵌套层,则使用表单指定每个层“propertyname1 / layername1 / resclynamen / layernamen / parametername”, 在哪里propertyName1图层名称1与输入中的图层对应到getl2factor.功能,后续部分对应更深层次。

例子:对于图层输入getl2factor.,小径“网络/conv1/权重”指定“重量”具有名称的图层的参数“conv1”在里面dlnetwork.对象网络层.

如果输入为getl2factor.是一个dlnetwork.对象,并且所需参数位于嵌套层中,则参数路径具有以下形式“layerName 1/propertyName/layerName/parameterName”,其中:

  • 图层名称1是输入中的图层的名称dlnetwork.对象

  • 属性名称是包含dlnetwork.对象

  • layername.中图层的名称dlnetwork.对象

  • 参数名是参数的名称

如果有多个嵌套层,则使用表单指定每个层“layerName1/propertyName1/../LayerNames/PropertyNames/layerName/parameterName”, 在哪里图层名称1propertyName1与输入中的图层对应到getl2factor.功能,后续部分对应更深层次。

例子:对于dlnetwork.输入到getl2factor.,小径“res1/Network/conv1/Weights”指定“重量”具有名称的图层的参数“conv1”在里面dlnetwork.对象网络层, 在哪里是具有名称的图层“Res1”在输入网络中DLNET..

数据类型:char|一串

自定义训练循环的网络,指定为dlnetwork.目的。

图层名称,指定为字符串标量或字符向量。

数据类型:char|一串

输出参数

全部收缩

参数的L2正则化因子,作为非负标量返回。

软件将此因子乘以全局L2正则化因子,以确定指定参数的L2正则化。例如,如果因素为2,则指定参数的L2正则化是当前全局L2正则化的两倍。软件将根据使用指定的设置确定全局L2正则化培训选项作用

在R2017b中引入