门控复发单元(GRU)层据/p>
GRU层学习时间序列中时间步长与序列数据之间的依赖关系。据/span>
创建GRU层并设置据a href="//www.tatmou.com/help/deeplearning/ref/nnet.cnn.layer.grulayer.html" class="intrnllnk">层据/code>= GRULAYER(据code class="argument">numHiddenUnits据/code>)据/code>
NumHiddenUnits据/code>财产。据/p>
套额外据a href="//www.tatmou.com/help/deeplearning/ref/nnet.cnn.layer.grulayer.html" class="intrnllnk">层据/code>= GRULAYER(据code class="argument">numHiddenUnits据/code>那据code class="argument">名称,价值据/code>)据/code>
OutputMode.据/code>那据a href="//www.tatmou.com/help/deeplearning/ref/nnet.cnn.layer.grulayer.html" class="intrnllnk">激活据/a>那据a href="//www.tatmou.com/help/deeplearning/ref/nnet.cnn.layer.grulayer.html" class="intrnllnk">州据/a>那据a href="//www.tatmou.com/help/deeplearning/ref/nnet.cnn.layer.grulayer.html" class="intrnllnk">参数和初始化据/a>那据a href="//www.tatmou.com/help/deeplearning/ref/nnet.cnn.layer.grulayer.html" class="intrnllnk">学习速度和正规化据/a>,和据a href="//www.tatmou.com/help/deeplearning/ref/nnet.cnn.layer.grulayer.html" class="intrnllnk">
的名字据/code>属性使用一个或多个名称-值对参数。可以指定多个名称-值对参数。将每个属性名用引号括起来。据/p>
NumHiddenUnits据/code>
-据S.pan itemprop="purpose">隐藏单位数量据/span>隐藏单元数(也称为隐藏大小),指定为正整数。据/p>
隐藏单元的数量对应于在时间步骤(隐藏状态)之间记住的信息量。无论序列长度如何,隐藏状态都可以包含来自所有前一次时间步长的信息。如果隐藏单元的数量太大,则该图层可能会过度装满培训数据。这个值可以从几十到几千个之间变化。据/p>
隐藏状态不会限制迭代中处理的时间步长的数量。将序列拆分为较小的序列进行培训,使用据a href="//www.tatmou.com/help/deeplearning/ref/trainingoptions.html"> 示例:据/strong>200.据/p>
'sequencelength'据/code>选项据a href="//www.tatmou.com/help/deeplearning/ref/trainingoptions.html">
培训选项据/code>.据/p>
OutputMode.据/code>
-据S.pan itemprop="purpose">格式的输出据/span>'序列'据/code>
(默认)|据S.pan itemprop="inputvalue">'最后'据/code>
输出格式,指定为以下之一:据/p>
'序列'据/code>- 输出完整序列。据/p>
'最后'据/code>- 输出序列的最后一次步骤。据/p>
ResetGateMode.据/code>
-据S.pan itemprop="purpose">重置门模式据/span>“after-multiplication”据/code>
(默认)|据S.pan itemprop="inputvalue">'之前乘法'据/code>
|据S.pan itemprop="inputvalue">'反复间隔 - 乘法倍增'据/code>
重置门模式,指定为以下之一:据/p>
“after-multiplication”据/code>—矩阵乘法后应用复位门。这个选项是cuDNN兼容的。据/p>
'之前乘法'据/code>- 在矩阵乘法之前应用重置门。据/p>
'反复间隔 - 乘法倍增'据/code>- 矩阵乘法后应用重置门,并使用额外的偏置术语进行复发重量。据/p>
有关重置门计算的更多信息,请参阅据a href="//www.tatmou.com/help/deeplearning/ref/nnet.cnn.layer.grulayer.html" class="intrnllnk">门控复发单元层据/a>.据/p>
输入据/code>
-据S.pan itemprop="purpose">输入大小据/span>'auto'据/code>
(默认)|据S.pan itemprop="inputvalue">正整数据/span>输入大小,指定为正整数或据code class="literal">'auto'据/code>.如果据code class="property">输入据/code>是据code class="literal">'auto'据/code>,然后软件会自动为培训时间分配输入大小。据/p>
示例:据/strong>One hundred.据/p>
StateActivationFunction据/code>
-据S.pan itemprop="purpose">激活功能更新隐藏状态据/span>'tanh'据/code>
(默认)|据S.pan itemprop="inputvalue">'softsign'据/code>
激活函数更新隐藏状态,指定为以下之一:据/p>
'tanh'据/code>- 使用双曲线切线功能(Tanh)。据/p>
'softsign'据/code>- 使用SoftSign功能据S.pan class="inlineequation">
.据/p>
该层使用此选项作为函数据S.pan class="inlineequation"> 在计算以更新隐藏状态。据/p>
gateactivationfunction据/code>
-据S.pan itemprop="purpose">激活功能适用于大门据/span>'sigmoid'据/code>
(默认)|据S.pan itemprop="inputvalue">'hard-sigmoid'据/code>
激活函数适用于门,指定为以下之一:据/p>
'sigmoid'据/code>- 使用sigmoid函数据S.pan class="inlineequation">
.据/p>
'hard-sigmoid'据/code>- 使用硬的符合硬件功能据/p>
该层使用此选项作为函数据S.pan class="inlineequation"> 在图层门的计算中。据/p>
隐静塔据/code>
-据S.pan itemprop="purpose">隐藏状态的初始值据/span>隐藏状态的初始值,指定为a据code class="literal">NumHiddenUnits据/code>- 1号数字矢量。该值对应于时间步骤0的隐藏状态。据/p>
设置此属性后,调用据code class="function">重置静止据/code>函数将隐藏状态设置为此值。据/p>
InputWeightsInitializer据/code>
-据S.pan itemprop="purpose">初始化输入权重的功能据/span>'glorot'据/code>
(默认)|据S.pan itemprop="inputvalue">'他'据/code>
|据S.pan itemprop="inputvalue">“正交”据/code>
|据S.pan itemprop="inputvalue">'窄正常'据/code>|据S.pan itemprop="inputvalue">'zeros'据/code>|据S.pan itemprop="inputvalue">'那里'据/code>|据S.pan itemprop="inputvalue">功能手柄据/span>
函数初始化输入权值,指定为以下其中之一:据/p>
'glorot'据/code>—使用gloria初始化器初始化输入权值据a href="//www.tatmou.com/help/deeplearning/ref/nnet.cnn.layer.grulayer.html" class="intrnllnk">[2]据/a>(也称为Xavier Initializer)。Glorot Initializer从均匀分布的独立样本,零均匀和方差据code class="literal">2 /(输入+ NUMOUT)据/code>,在哪里据code class="literal">numout = 3 * numhidentunits据/code>.据/p>
'他'据/code>- 用他的初始化程序初始化输入权重据a href="//www.tatmou.com/help/deeplearning/ref/nnet.cnn.layer.grulayer.html" class="intrnllnk">[3]据/a>.初始化器的样本来自均值和方差为零的正态分布据code class="literal">2 / InputSize据/code>.据/p>
“正交”据/code>—初始化输入权值据E.m class="varname">问:据/em>,QR分解给出的正交矩阵据E.m class="varname">Z.据/em>=据E.m class="varname">问:据/em>R.据/em>对于随机矩阵据E.m class="varname">Z.据/em>从单位正态分布中取样。据a href="//www.tatmou.com/help/deeplearning/ref/nnet.cnn.layer.grulayer.html" class="intrnllnk">[4]据/a>
'窄正常'据/code>-从均值为零、标准差为0.01的正态分布中独立抽样,初始化输入权值。据/p>
'zeros'据/code>—将输入权值初始化为0。据/p>
'那里'据/code>—使用“1”初始化输入权值。据/p>
函数句柄——用自定义函数初始化输入权重。如果指定函数句柄,则函数必须是表单据code class="literal">权重= func(sz)据/code>,在哪里据code class="literal">深圳据/code>为输入权值的大小。据/p>
该层仅初始化输入权重据code class="property">输入重量据/code>财产是空的。据/p>
数据类型:据/strong>char据/code>|据code>字符串据/code>|据code>function_handle.据/code>
经常性的重量初始化器据/code>
-据S.pan itemprop="purpose">初始化反复重量的功能据/span>“正交”据/code>
(默认)|据S.pan itemprop="inputvalue">'glorot'据/code>
|据S.pan itemprop="inputvalue">'他'据/code>
|据S.pan itemprop="inputvalue">'窄正常'据/code>|据S.pan itemprop="inputvalue">'zeros'据/code>|据S.pan itemprop="inputvalue">'那里'据/code>|据S.pan itemprop="inputvalue">功能手柄据/span>
函数初始化递归权值,指定为:据/p>
“正交”据/code>- 初始化反复重量据E.m class="varname">问:据/em>,QR分解给出的正交矩阵据E.m class="varname">Z.据/em>=据E.m class="varname">问:据/em>R.据/em>对于随机矩阵据E.m class="varname">Z.据/em>从单位正态分布中取样。据a href="//www.tatmou.com/help/deeplearning/ref/nnet.cnn.layer.grulayer.html" class="intrnllnk">[4]据/a>
'glorot'据/code>- 使用Glorot Initializer初始化反复重量据a href="//www.tatmou.com/help/deeplearning/ref/nnet.cnn.layer.grulayer.html" class="intrnllnk">[2]据/a>(也称为Xavier Initializer)。Glorot Initializer从均匀分布的独立样本,零均匀和方差据code class="literal">2 /(numin + numout)据/code>,在哪里据code class="literal">numin = numhidendunits.据/code>和据code class="literal">numout = 3 * numhidentunits据/code>.据/p>
'他'据/code>- 用初始化程序初始化反复重量据a href="//www.tatmou.com/help/deeplearning/ref/nnet.cnn.layer.grulayer.html" class="intrnllnk">[3]据/a>.初始化器的样本来自均值和方差为零的正态分布据code class="literal">2 / numhidentunits.据/code>.据/p>
'窄正常'据/code>- 通过独立从正常分布采样,零平均值和标准偏差0.01,通过自主分布进行初始化复发权重。据/p>
'zeros'据/code>- 用零初始化反复重量。据/p>
'那里'据/code>- 用初始化反复重量。据/p>
功能句柄 - 使用自定义功能初始化反复值。如果指定函数句柄,则函数必须是表单据code class="literal">权重= func(sz)据/code>,在哪里据code class="literal">深圳据/code>是经常性重量的大小。据/p>
该层只初始化递归权值据code class="property">经常性重量据/code>财产是空的。据/p>
数据类型:据/strong>char据/code>|据code>字符串据/code>|据code>function_handle.据/code>
偏见初始化器据/code>
-据S.pan itemprop="purpose">函数初始化偏差据/span>'zeros'据/code>
(默认)|据S.pan itemprop="inputvalue">'窄正常'据/code>
|据S.pan itemprop="inputvalue">'那里'据/code>
|据S.pan itemprop="inputvalue">功能手柄据/span>初始化偏差的函数,指定为以下之一:据/p>
Zeros'据/code>- 用零初始化偏差。据/p>
'窄正常'据/code>- 通过从正常分布的自主分布采样,零平均值和标准偏差0.01,初始化偏差。据/p>
'那里'据/code>- 初始化偏差。据/p>
功能句柄 - 使用自定义功能初始化偏差。如果指定函数句柄,则函数必须是表单据code class="literal">BIAS = FUNC(SZ)据/code>,在哪里据code class="literal">深圳据/code>是偏见的大小。据/p>
该图层仅初始化偏差时据code class="property">偏见据/code>财产是空的。据/p>
数据类型:据/strong>char据/code>|据code>字符串据/code>|据code>function_handle.据/code>
输入重量据/code>
-据S.pan itemprop="purpose">输入权重据/span>[]据/code>
(默认)|据S.pan itemprop="inputvalue">矩阵据/span>输入权重,指定为矩阵。据/p>
输入权重矩阵是GRU层中的组件的三个输入权重矩阵的串联。三个矩阵按以下顺序垂直连接:据/p>
重设门据/p>
更新门据/p>
候选人的状态据/p>
输入权重是可学习的参数。培训网络时,如果据code class="property">输入重量据/code>非空的,那么据a href="//www.tatmou.com/help/deeplearning/ref/trainnetwork.html"> 在培训时间,据code class="property">输入重量据/code>是一个据code class="literal">3 * NumHiddenUnits据/code>-据code class="literal">输入据/code>矩阵。据/p>
Trainnetwork.据/code>使用据code class="property">输入重量据/code>属性作为初始值。如果据code class="property">输入重量据/code>是空的,然后据code class="function">Trainnetwork.据/code>使用指定的初始化式据code class="property">InputWeightsInitializer据/code>.据/p>
经常性重量据/code>
-据S.pan itemprop="purpose">复发性权重据/span>[]据/code>
(默认)|据S.pan itemprop="inputvalue">矩阵据/span>经常性重量,指定为矩阵。据/p>
复发性重量基质是用于GRU层中的组件的三个复发重量矩阵的串联。三个矩阵按以下顺序垂直连接:据/p>
重设门据/p>
更新门据/p>
候选人的状态据/p>
经常性重量是可学习的参数。培训网络时,如果据code class="property">经常性重量据/code>非空的,那么据a href="//www.tatmou.com/help/deeplearning/ref/trainnetwork.html"> 在训练时间据code class="property">经常性重量据/code>是一个据code class="literal">3 * NumHiddenUnits据/code>-据code class="literal">NumHiddenUnits据/code>矩阵。据/p>
Trainnetwork.据/code>使用据code class="property">经常性重量据/code>属性作为初始值。如果据code class="property">经常性重量据/code>是空的,然后据code class="function">Trainnetwork.据/code>使用指定的初始化式据code class="property">经常性的重量初始化器据/code>.据/p>
偏见据/code>
-据S.pan itemprop="purpose">层偏差据/span>[]据/code>
(默认)|据S.pan itemprop="inputvalue">数字矢量据/span>GRU层的层偏置,指定为数字向量。据/p>
如果据code class="property">ResetGateMode.据/code>是据code class="literal">“after-multiplication”据/code>或者据code class="literal">'之前乘法'据/code>然后,偏置载体是针对GRU层中的组件的三个偏置矢量的串联。三个载体按以下顺序垂直连接:据/p>
重设门据/p>
更新门据/p>
候选人的状态据/p>
在这种情况下,在培训时间,据code class="property">偏见据/code>是一个据code class="literal">3 * NumHiddenUnits据/code>- 1号数字矢量。据/p>
如果据code class="property">ResetGateMode.据/code>是据code class="literal">反复偏见后乘法'据/code>,则偏置矢量是在GRU层的组分6个偏置矢量的串联。六个载体按以下顺序垂直连接:据/p>
重设门据/p>
更新门据/p>
候选人的状态据/p>
重置门(反复偏置)据/p>
更新门(重复偏置)据/p>
候选国家(经常性偏见)据/p>
在这种情况下,在培训时间,据code class="property">偏见据/code>是一个据code class="literal">6 * numhidendunits.据/code>- 1号数字矢量。据/p>
层偏置是可学习参数。培训网络时,如果据code class="property">偏见据/code>非空的,那么据a href="//www.tatmou.com/help/deeplearning/ref/trainnetwork.html"> 有关重置门计算的更多信息,请参阅据a href="//www.tatmou.com/help/deeplearning/ref/nnet.cnn.layer.grulayer.html" class="intrnllnk">门控复发单元层据/a>.据/p>
Trainnetwork.据/code>使用据code class="property">偏见据/code>属性作为初始值。如果据code class="property">偏见据/code>是空的,然后据code class="function">Trainnetwork.据/code>使用指定的初始化式据code class="property">偏见初始化器据/code>.据/p>
inputweightslearnratefactor.据/code>
-据S.pan itemprop="purpose">输入权值的学习率因子据/span>输入权值的学习率因子,指定为数字标量或1 × 3数字向量。据/p>
该软件通过全局学习速率乘以该系数,以确定图层的输入权重的学习速率因子。例如,如果据code class="property">inputweightslearnratefactor.据/code>是2,那么层的输入权重的学习率因子是当前全球学习率的两倍。该软件根据指定的设置确定全局学习速率据a href="//www.tatmou.com/help/deeplearning/ref/trainingoptions.html"> 控制三个单独矩阵的学习率因子的值据code class="property">输入重量据/code>,指定一个1 × 3的向量。的条目据code class="property">inputweightslearnratefactor.据/code>对应于以下的学习率因子:据/p>
重设门据/p> 更新门据/p> 候选人的状态据/p> 要为所有矩阵指定相同的值,请指定非负标量。据/p>
示例:据/strong> 示例:据/strong>培训选项据/code>功能。据/p>
2据/code>
[1 2 1]据/code>
经常复活learnratefactor.据/code>
-据S.pan itemprop="purpose">经常性重量的学习率因子据/span>用于复发权重的学习率因子,指定为数字标量或1×3数字向量。据/p>
该软件通过全局学习率乘以此因素来确定层的复发权重的学习率。例如,如果据code class="property">经常复活learnratefactor.据/code>是2,然后层的复发权重的学习率是当前全球学习率的两倍。该软件根据指定的设置确定全局学习速率据a href="//www.tatmou.com/help/deeplearning/ref/trainingoptions.html"> 控制三个单独矩阵的学习率因子的值据code class="property">经常性重量据/code>,指定一个1 × 3的向量。的条目据code class="property">经常复活learnratefactor.据/code>对应于以下的学习率因子:据/p>
重设门据/p> 更新门据/p> 候选人的状态据/p> 要为所有矩阵指定相同的值,请指定非负标量。据/p>
示例:据/strong> 示例:据/strong>培训选项据/code>功能。据/p>
2据/code>
[1 2 1]据/code>
Biaslearnratefactor.据/code>
-据S.pan itemprop="purpose">学习速率因素的偏差据/span>偏置的学习率因子,指定为非负标量或1×3数字矢量。据/p>
软件将这个因子乘以全局学习率,以确定这一层偏差的学习率。例如,如果据code class="property">Biaslearnratefactor.据/code>是2,那么层中偏差的学习率是当前全球学习率的两倍。该软件根据指定的设置确定全局学习速率据a href="//www.tatmou.com/help/deeplearning/ref/trainingoptions.html"> 控制中三个独立向量的学习率因子的值据code class="property">偏见据/code>,指定一个1 × 3的向量。的条目据code class="property">Biaslearnratefactor.据/code>对应于以下的学习率因子:据/p>
重设门据/p> 更新门据/p> 候选人的状态据/p> 如果据code class="property">ResetGateMode.据/code>是据code class="literal">'反复间隔 - 乘法倍增'据/code>,然后软件使用相同的向量来计算递归偏倚向量。据/p>
要为所有向量指定相同的值,请指定一个非负标量。据/p>
示例:据/strong> 示例:据/strong>培训选项据/code>功能。据/p>
2据/code>
[1 2 1]据/code>
Inputweightsl2factor.据/code>
-据S.pan itemprop="purpose">L2输入重量的正则化因子据/span>L2输入权重的正则化因子,指定为数字标量或1×3数字矢量。据/p>
该软件通过全局L2正则化因子乘以此因素,以确定图层的输入权重的L2正则化因子。例如,如果据code class="property">Inputweightsl2factor.据/code>是2,那么层的输入权重的L2正则化因子是当前全局L2正则化因子的两倍。该软件根据指定的设置确定L2正则化因子据a href="//www.tatmou.com/help/deeplearning/ref/trainingoptions.html"> 控制三个单独矩阵的L2正则化因子的值据code class="property">输入重量据/code>,指定一个1 × 3的向量。的条目据code class="property">Inputweightsl2factor.据/code>对应于以下L2正则化因子:据/p>
重设门据/p> 更新门据/p> 候选人的状态据/p> 要为所有矩阵指定相同的值,请指定非负标量。据/p>
示例:据/strong> 示例:据/strong>培训选项据/code>功能。据/p>
2据/code>
[1 2 1]据/code>
复发重量2.据/code>
-据S.pan itemprop="purpose">重复重量的L2正则化因子据/span>L2正则化因子的轮回权,指定为一个数字标量或1乘3的数字向量。据/p>
该软件通过全局L2正则化因子乘以该系数,以确定层的复发权重的L2正则化因子。例如,如果据code class="property">复发重量2.据/code>是2,那么层的反复重量的L2正则化因子是当前全局L2正则化因子的两倍。该软件根据指定的设置确定L2正则化因子据a href="//www.tatmou.com/help/deeplearning/ref/trainingoptions.html"> 控制三个单独矩阵的L2正则化因子的值据code class="property">经常性重量据/code>,指定一个1 × 3的向量。的条目据code class="property">复发重量2.据/code>对应于以下L2正则化因子:据/p>
重设门据/p> 更新门据/p> 候选人的状态据/p> 要为所有矩阵指定相同的值,请指定非负标量。据/p>
示例:据/strong> 示例:据/strong>培训选项据/code>功能。据/p>
2据/code>
[1 2 1]据/code>
biasl2factor.据/code>
-据S.pan itemprop="purpose">L2偏差的正则化因子据/span>L2偏差的正则化因子,指定为非负标量或1×3数字向量。据/p>
该软件将此因子乘以全局L2正则化因子来确定该层中偏差的L2正则化。例如,如果据code class="property">biasl2factor.据/code>是2,那么该层中偏差的L2正则化是全局L2正则化因子的两倍。您可以使用使用的全局L2正则化因子指定据a href="//www.tatmou.com/help/deeplearning/ref/trainingoptions.html"> 控制单个向量的L2正则化因子的值据code class="property">偏见据/code>,指定一个1 × 3的向量。的条目据code class="property">biasl2factor.据/code>对应于以下L2正则化因子:据/p>
重设门据/p> 更新门据/p> 候选人的状态据/p> 如果据code class="property">ResetGateMode.据/code>是据code class="literal">'反复间隔 - 乘法倍增'据/code>,然后软件使用相同的向量来计算递归偏倚向量。据/p>
要为所有向量指定相同的值,请指定一个非负标量。据/p>
示例:据/strong> 示例:据/strong>培训选项据/code>功能。据/p>
2据/code>
[1 2 1]据/code>
的名字据/code>
-据S.pan itemprop="purpose">图层名称据/span>''据/code>
(默认)|据S.pan itemprop="inputvalue">特征向量据/span>|据S.pan itemprop="inputvalue">字符串标量据/span>图层名称,指定为字符向量或字符串标量。如果据code class="property">的名字据/code>设置为据code class="literal">''据/code>,然后软件在培训时间自动分配名称。据/p>
数据类型:据/strong>char据/code>|据code>字符串据/code>
numinputs.据/code>
-据S.pan itemprop="purpose">输入数量据/span>图层的输入数。此图层仅接受单个输入。据/p>
数据类型:据/strong>双人间据/code>
输入名称据/code>
-据S.pan itemprop="purpose">输入名字据/span>{'在'}据/code>
(默认)据/span>图层的输入名称。此图层仅接受单个输入。据/p>
数据类型:据/strong>细胞据/code>
numoutput.据/code>
-据S.pan itemprop="purpose">数量的输出据/span>图层的输出数。此图层仅具有单个输出。据/p>
数据类型:据/strong>双人间据/code>
输出名称据/code>
-据S.pan itemprop="purpose">输出名称据/span>{“出”}据/code>
(默认)据/span>图层的输出名称。此图层仅具有单个输出。据/p>
数据类型:据/strong>细胞据/code>
使用名称创建GRU层据code class="literal">'gru1'据/code>和100个隐藏的单位。据/p>
层= GRULAYER(100,据S.pan style="color:#A020F0">'名字'据/span>那据S.pan style="color:#A020F0">'gru1'据/span>)据/pre>
层= GRULayer属性:名称:‘gru1 Hyperparameters InputSize:“汽车”NumHiddenUnits: 100 OutputMode:“序列”StateActivationFunction:“双曲正切GateActivationFunction:乙状结肠的ResetGateMode:‘after-multiplication InputWeights可学的参数:[]RecurrentWeights:[]偏见:[]HiddenState状态参数:[]显示所有属性据/pre>
包括GRU层据code class="literal">层据/code>阵列。据/p>
输入= 12;numhidendunits = 100;numclasses = 9;层= [据S.pan style="color:#0000FF">...据/span>SequenceInputLayer(InputSize)GRULAYER(NUMHIDNEDURITS)全连接列(NUMCLASSES)SoftMaxLayer ClassificationLayer]据/pre>
图层= 5x1层阵列带图层:1''序列输入序列输入,带12尺寸2'GRU GRU,具有100个隐藏单元3''完全连接的9完全连接的第4层''Softmax Softmax 5''分类输出CrossentRopyex据/pre>
GRU层学习时间序列中时间步长与序列数据之间的依赖关系。据/span>
当据S.pan class="emphasis">隐藏状态据/em>在时间步长的层据E.m class="varname">T.据/em>包含此时间步骤的GRU层的输出。在每个时间步骤中,该图层将信息添加到状态或从状态中删除信息。该图层使用以下控制这些更新据S.pan class="emphasis">盖茨据/em>.据/p>
以下组件控制层的隐藏状态。据/p>
GRU层的学习权重是输入权重据E.m class="varname">W.据/em>(据code class="property">输入重量据/code>),复发重量据E.m class="varname">R.据/em>(据code class="property">经常性重量据/code>)和偏见据E.m class="varname">B.据/em>(据code class="property">偏见据/code>).如果据code class="property">ResetGateMode.据/code>属性是据code class="literal">'反复间隔 - 乘法倍增'据/code>,那么门和状态的计算需要两组偏差值。的矩阵据E.m class="varname">W.据/em>和据E.m class="varname">R.据/em>分别为每个分量的输入权值和循环权值的串联。这些矩阵连接如下:据/p>
在哪里据E.m class="varname">R.据/em>那据E.m class="varname">Z.据/em>,和据S.pan class="inlineequation">
分别表示复位门,更新门和候选状态。据/p>
偏置矢量取决于据code class="property">ResetGateMode.据/code>财产。如果据code class="property">ResetGateMode.据/code>是据code class="literal">'之后的倍数'据/code>或者据code class="literal">'之前乘法'据/code>,然后偏置载体是三个向量的串联:据/p>
其中下标据E.m class="varname">W.据/em>表示这是与输入权重乘法对应的偏差。据/p>
如果据code class="property">ResetGateMode.据/code>是据code class="literal">'反复间隔 - 乘法倍增'据/code>,然后偏置载体是六个向量的串联:据/p>
其中下标据E.m class="varname">R.据/em>表示这是与反复重量乘法对应的偏差。据/p>
隐藏的状态在时间步骤据E.m class="varname">T.据/em>是由据/p>
下面的公式描述了时间步长的分量据E.m class="varname">T.据/em>.据/p>
在这些计算,据S.pan class="inlineequation">
和据S.pan class="inlineequation">
表示栅极和状态激活功能。当据code class="object">格拉勒据/code>默认情况下,函数使用Sigmoid函数给出据S.pan class="inlineequation">
计算门激活函数和双曲正切函数(tanh)来计算状态激活函数。要指定状态和门激活函数,请使用据a href="//www.tatmou.com/help/deeplearning/ref/nnet.cnn.layer.grulayer.html" class="intrnllnk">
组件据/th>
目的据/th>
重置门(据E.m class="varname">R.据/em>)据/td>
控制状态重置据/td>
更新门(据E.m class="varname">Z.据/em>)据/td>
控制级别的状态更新据/td>
候选国家(据S.pan class="inlineequation">
)据/td>
控制到隐藏状态的更新级别据/td>
组件据/th>
ResetGateMode.据/code>
惯例据/th>
重设门据/td>
“after-multiplication”据/code>
'之前乘法'据/code>
'反复间隔 - 乘法倍增'据/code>
更新门据/td>
“after-multiplication”据/code>
'之前乘法'据/code>
'反复间隔 - 乘法倍增'据/code>
候选人的状态据/td>
“after-multiplication”据/code>
'之前乘法'据/code>
'反复间隔 - 乘法倍增'据/code>
StateActivationFunction据/code>和据a href="//www.tatmou.com/help/deeplearning/ref/nnet.cnn.layer.grulayer.html" class="intrnllnk">
gateactivationfunction据/code>属性分别。据/p>
[1] Cho, Kyunghyun, Bart Van Merriënboer, Caglar Gulcehre, Dzmitry Bahdanau, Fethi Bougares, Holger Schwenk, Yoshua Bengio。使用RNN编码器-解码器学习短语表示,用于统计机器翻译。据E.m class="citetitle">ARXIV预印亚克日期:1406.1078据/em>(2014)。据/p>
[2]格洛洛,泽维尔,还有约书亚·本吉奥。理解训练深度前馈神经网络的困难in.据E.m class="citetitle">第十三届国际人工智能和统计会议论文集据/em>,249-356。撒丁岛,意大利:2010年亚斯特哈。据/p>
[3]他,Kaiming,湘雅张,少清任,剑孙。“深入研究整流器:超越了在想象集分类上的人力水平表现。”in.据E.m class="citetitle">2015年IEEE计算机愿景会议的诉讼程序据/em>,1026-1034。华盛顿特区:IEEE计算机视觉协会,2015年。据/p>
[4] Saxe,Andrew M.,James L. McClelland和Surya Ganguli。“深线性神经网金宝搏官方网站络中学习非线性动力学的精确解决方案”。据E.m class="citetitle">arXiv预印本arXiv: 1312.6120据/em>(2013)。据/p>
使用说明和限制:据/span>
当据code class="literal">StateActivationFunction据/code>财产必须设置为据code class="literal">'tanh'据/code>.据/p>
当据code class="literal">gateactivationfunction据/code>财产必须设置为据code class="literal">'sigmoid'据/code>.据/p>
当据code class="property">ResetGateMode.据/code>财产必须设置为据code class="literal">“after-multiplication”据/code>或者据code class="literal">'反复间隔 - 乘法倍增'据/code>.据/p>
使用说明和限制:据/p>
当据code class="literal">StateActivationFunction据/code>财产必须设置为据code class="literal">'tanh'据/code>.据/p>
当据code class="literal">gateactivationfunction据/code>财产必须设置为据code class="literal">'sigmoid'据/code>.据/p>
当据code class="property">ResetGateMode.据/code>财产必须设置为据code class="literal">“after-multiplication”据/code>或者据code class="literal">'反复间隔 - 乘法倍增'据/code>.据/p>
Bilstmlayer.据/code>
|据S.pan itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">classifyandupdateState.据/code>
|据S.pan itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">Flattenlayer.据/code>
|据S.pan itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">lstmlayer.据/code>
|据S.pan itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">predictAndUpdateState据/code>
|据S.pan itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">重置静止据/code>
|据S.pan itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">SequenceFoldingLayer.据/code>
|据S.pan itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">sequenceInputLayer据/code>
|据S.pan itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">sequencfoldinglayer.据/code>
您单击了与此MATLAB命令对应的链接:据/p>
通过在MATLAB命令窗口中输入命令来运行命令。Web浏览器不支持MATLAB命令。金宝app据/p>
选择一个网站,在那里获得翻译的内容,并看到当地的活动和优惠。根据您的位置,我们建议您选择:据S.T.R.ong class="recommended-country">.据/p> 选择据S.pan class="recommended-country">网站据/a>
您还可以从以下列表中选择一个网站:据/p>
选择中国网站(以中文或英文)以获取最佳网站性能。其他MathWorks国家网站未优化您的位置。据/p>