选通循环单元(GRU)层
GRU层学习时间序列中时间步长与序列数据之间的依赖关系。
创建一个GRU层并设置层
NumHiddenUnits
设置额外的层
OutputMode
的名字
NumHiddenUnits
- - - - - -<年代pan itemprop="purpose">隐藏单位数隐藏单元的数量(也称为隐藏大小),指定为正整数。 隐藏单元的数量对应于时间步骤(隐藏状态)之间所记忆的信息量。隐藏状态可以包含所有以前的时间步骤的信息,而不管序列的长度。如果隐藏单元的数量太大,那么该层可能会过度适合训练数据。这个值从几十个到几千个不等。 隐藏状态不限制迭代中处理的时间步骤的数量。将你的序列分割成更小的序列进行训练,使用 例子:“SequenceLength”
trainingOptions
OutputMode
- - - - - -<年代pan itemprop="purpose">输出的格式“序列”
(默认)|<年代pan itemprop="inputvalue">“最后一次”
输出格式,指定为下列格式之一:
“序列”
“最后一次”
重置网关模式
- - - - - -<年代pan itemprop="purpose">重置门模式“after-multiplication”
(默认)|<年代pan itemprop="inputvalue">“before-multiplication”
|<年代pan itemprop="inputvalue">“乘法后的重复性偏差”
复位门模式,指定为以下方式之一: 有关重置门计算的更多信息,请参见
“after-multiplication”
“before-multiplication”
“乘法后的重复性偏差”
输入大小
- - - - - -<年代pan itemprop="purpose">输入的大小“汽车”
(默认)|<年代pan itemprop="inputvalue">正整数输入大小,指定为正整数或 例子:
StateActivationFunction
- - - - - -<年代pan itemprop="purpose">激活函数更新隐藏状态的双曲正切
(默认)|<年代pan itemprop="inputvalue">“软设计”
更新隐藏状态的激活函数,指定为如下之一: 图层使用此选项作为功能<年代pan class="inlineequation">
在计算中更新隐藏状态。
的双曲正切
“软设计”
网关激活功能
- - - - - -<年代pan itemprop="purpose">激活功能适用于大门“乙状结肠”
(默认)|<年代pan itemprop="inputvalue">“hard-sigmoid”
激活功能,以适用于门,指定为以下之一:
图层使用此选项作为功能<年代pan class="inlineequation">
在层门的计算中。
“乙状结肠”
“hard-sigmoid”
HiddenState
- - - - - -<年代pan itemprop="purpose">隐藏状态的初始值隐藏状态的初始值,指定为 设置此属性后,调用
InputWeightsInitializer
- - - - - -<年代pan itemprop="purpose">函数初始化输入权重“glorot”
(默认)|<年代pan itemprop="inputvalue">“他”
|<年代pan itemprop="inputvalue">“正交”
|<年代pan itemprop="inputvalue">“narrow-normal”|<年代pan itemprop="inputvalue">“零”|<年代pan itemprop="inputvalue">“一个人”|<年代pan itemprop="inputvalue">函数处理
函数初始化输入权值,指定为以下其中之一: 函数句柄——用自定义函数初始化输入权重。如果指定函数句柄,则该函数必须是这种形式的 该层仅在以下情况下初始化输入权重: 数据类型:
“glorot”
“他”
“正交”
“narrow-normal”
“零”
“一个人”
烧焦
RecurrentWeightsInitializer
- - - - - -<年代pan itemprop="purpose">函数初始化递归权值“正交”
(默认)|<年代pan itemprop="inputvalue">“glorot”
|<年代pan itemprop="inputvalue">“他”
|<年代pan itemprop="inputvalue">“narrow-normal”|<年代pan itemprop="inputvalue">“零”|<年代pan itemprop="inputvalue">“一个人”|<年代pan itemprop="inputvalue">函数处理
函数初始化递归权值,指定为: 函数句柄——用自定义函数初始化递归权值。如果指定函数句柄,则该函数必须是这种形式的 该层只初始化递归权值 数据类型:
“正交”
“glorot”
“他”
“narrow-normal”
“零”
“一个人”
烧焦
BiasInitializer
- - - - - -<年代pan itemprop="purpose">函数初始化偏差“零”
(默认)|<年代pan itemprop="inputvalue">“narrow-normal”
|<年代pan itemprop="inputvalue">“一个人”
|<年代pan itemprop="inputvalue">函数处理函数初始化偏差,指定为以下选项之一: 函数句柄——用自定义函数初始化偏差。如果指定函数句柄,则该函数必须是这种形式的 该层仅在 数据类型:
零
“narrow-normal”
“一个人”
烧焦
InputWeights
- - - - - -<年代pan itemprop="purpose">输入重量[]
(默认)|<年代pan itemprop="inputvalue">矩阵输入权重,指定为矩阵。 输入权矩阵是GRU层中各分量的三个输入权矩阵的串联。这三个矩阵按以下顺序垂直连接: 重设门 更新门 候选人的状态 输入权值是可学习的参数。当训练一个网络时,如果 在培训时,
trainNetwork
RecurrentWeights
- - - - - -<年代pan itemprop="purpose">复发性权重[]
(默认)|<年代pan itemprop="inputvalue">矩阵递归权值,用矩阵表示。 递归权矩阵是GRU层中各分量的三个递归权矩阵的串联。这三个矩阵按以下顺序垂直连接: 重设门 更新门 候选人的状态 循环权值是可学习的参数。当训练一个网络时,如果 在训练时间
trainNetwork
偏见
- - - - - -<年代pan itemprop="purpose">层偏差[]
(默认)|<年代pan itemprop="inputvalue">数值向量层偏差为GRU层,指定为数字向量。 如果 重设门 更新门 候选人的状态 在这种情况下,在训练期间, 如果 重设门 更新门 候选人的状态 复位门(重复偏置) 更新门(周期性偏倚) 候选状态(复发性偏倚) 在这种情况下,在训练期间, 层偏差是可学习的参数。当训练一个网络时,如果 有关重置门计算的更多信息,请参见
trainNetwork
InputWeightsLearnRateFactor
- - - - - -<年代pan itemprop="purpose">输入权值的学习率因子输入权值的学习率因子,指定为数字标量或1 × 3数字向量。 软件将该系数乘以全局学习率,以确定该层输入权重的学习率系数。例如,如果 控制三个独立矩阵的学习率因子的值 重设门 更新门 候选人的状态 要为所有矩阵指定相同的值,请指定非负标量。 例子: 例子:trainingOptions
2
(1 2)
RecurrentWeightsLearnRateFactor
- - - - - -<年代pan itemprop="purpose">递归权值的学习率因子递归权值的学习率因子,指定为数值标量或1 × 3数值向量。 该软件将这个因子乘以全局学习率,以确定该层的循环权值的学习率。例如,如果 控制三个独立矩阵的学习率因子的值 重设门 更新门 候选人的状态 要为所有矩阵指定相同的值,请指定非负标量。 例子: 例子:trainingOptions
2
(1 2)
BiasLearnRateFactor
- - - - - -<年代pan itemprop="purpose">学习速率因素的偏差偏差的学习率因子,指定为非负标量或1×3数值向量。 软件将这个因子乘以全局学习率,以确定这一层偏差的学习率。例如,如果 控制中三个独立向量的学习率因子的值 重设门 更新门 候选人的状态 如果 要为所有向量指定相同的值,请指定一个非负标量。 例子: 例子:trainingOptions
2
(1 2)
InputWeightsL2Factor
- - - - - -<年代pan itemprop="purpose">L2正则化因子用于输入权值L2正则化因子的输入权值,指定为一个数字标量或1乘3的数字向量。 该软件将该因子乘以全局L2正则化因子,以确定L2正则化因子作为该层的输入权值。例如,如果 为了控制L2正则化因子的值为三个独立的矩阵 重设门 更新门 候选人的状态 要为所有矩阵指定相同的值,请指定非负标量。 例子: 例子:trainingOptions
2
(1 2)
RecurrentWeightsL2Factor
- - - - - -<年代pan itemprop="purpose">L2正则化因子用于循环权值L2正则化因子的轮回权,指定为一个数字标量或1乘3的数字向量。 该软件将该因子乘以全局L2正则化因子,以确定L2正则化因子用于层的循环权值。例如,如果 为了控制L2正则化因子的值为三个独立的矩阵 重设门 更新门 候选人的状态 要为所有矩阵指定相同的值,请指定非负标量。 例子: 例子:trainingOptions
2
(1 2)
BiasL2Factor
- - - - - -<年代pan itemprop="purpose">L2正则化因子的偏差偏差的L2正则化因子,指定为非负标量或1×3数值向量。 该软件将该因子乘以L2的全局正则化因子,以确定该层偏差的L2正则化。例如,如果 控制中各个向量的L2正则化因子的值 重设门 更新门 候选人的状态 如果 要为所有向量指定相同的值,请指定一个非负标量。 例子: 例子:trainingOptions
2
(1 2)
的名字
- - - - - -<年代pan itemprop="purpose">层的名字''
(默认)|<年代pan itemprop="inputvalue">特征向量图层名称,指定为字符向量或字符串标量。如果 数据类型:烧焦
努明普茨
- - - - - -<年代pan itemprop="purpose">输入数量层的输入数。此层仅接受单个输入。 数据类型:双重的
InputNames
- - - - - -<年代pan itemprop="purpose">输入名字{'在'}
(默认)输入层名。这一层只接受单个输入。 数据类型:细胞
NumOutputs
- - - - - -<年代pan itemprop="purpose">数量的输出层输出的数量。这一层只有一个输出。 数据类型:双重的
输出名称
- - - - - -<年代pan itemprop="purpose">输出的名字{“出”}
(默认)输出层的名称。这一层只有一个输出。 数据类型:细胞
创建一个名为 包含一个GRU层层= gruLayer (100<年代pan style="color:#A020F0">“名字”
层= GRULayer属性:名称:‘gru1 Hyperparameters InputSize:“汽车”NumHiddenUnits: 100 OutputMode:“序列”StateActivationFunction:“双曲正切GateActivationFunction:乙状结肠的ResetGateMode:‘after-multiplication InputWeights可学的参数:[]RecurrentWeights:[]偏见:[]HiddenState状态参数:[]显示所有属性
inputSize = 12;numHiddenUnits = 100;numClasses = 9;层= [<年代pan style="color:#0000FF">...
layers=5x1层阵列,带层:1''序列输入序列输入12维2''GRU GRU,带100个隐藏单元3''完全连接9完全连接层4''Softmax Softmax 5''分类输出crossentropyex
GRU层学习时间序列中时间步长与序列数据之间的依赖关系。
的<年代pan class="emphasis">隐藏状态 以下组件控制图层的隐藏状态。 GRU层的可学习权值即为输入权值
在哪里 偏差向量取决于
其中下标 如果
其中下标 时间步长处的隐藏状态
下面的公式描述了时间步长的分量 在这些计算,<年代pan class="inlineequation">
和<年代pan class="inlineequation">
分别表示门和状态激活函数
组件 目的
复位门( 状态复位控制级别
更新门( 状态更新控制级别
候选人状态(<年代pan class="inlineequation">
) 添加到隐藏状态的更新控制级别
组件 重置网关模式
公式
重设门 “after-multiplication”
“before-multiplication”
“乘法后的重复性偏差”
更新门 “after-multiplication”
“before-multiplication”
“乘法后的重复性偏差”
候选人的状态 “after-multiplication”
“before-multiplication”
“乘法后的重复性偏差”
StateActivationFunction
网关激活功能
[1] Cho, Kyunghyun, Bart Van Merriënboer, Caglar Gulcehre, Dzmitry Bahdanau, Fethi Bougares, Holger Schwenk, Yoshua Bengio。使用RNN编码器-解码器学习短语表示,用于统计机器翻译。
[2]格洛洛,泽维尔,还有约书亚·本吉奥。理解训练深度前馈神经网络的困难在
何开明,张翔宇,任少青,孙健深入研究整流器:在图像网分类上超越人类水平的表现。在
[4] 安德鲁·M·萨克斯、詹姆斯·L·麦克莱兰和苏里亚·甘古利:“深层线性神经网络学习非线性动力学的精确解。”金宝搏官方网站
使用说明和限制:
的
的
的
使用说明和限制: 的 的 的
bilstmLayer
|<年代pan itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">分类与更新房地产
|<年代pan itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">flattenLayer
|<年代pan itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">第一层
|<年代pan itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">predictAndUpdateState
|<年代pan itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">重置状态
|<年代pan itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">sequenceFoldingLayer
|<年代pan itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">sequenceInputLayer
|<年代pan itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">sequenceUnfoldingLayer
您已经有了abgeänderte版本死亡Beispiels。Möchten您是谁? Änderungen öffnen?
您有一个连接到MATLAB-Befehl entspricht: 弗伦·德尔奇·艾恩加贝(Führen Sie den Befehl durch Eingabe)在澳大利亚的MATLAB中,韦伯罗(Webbrowser)在MATLAB中的位置比基恩·基恩·MATLAB好。
选择一个网站,在那里获得翻译的内容,并看到当地的活动和优惠。根据您的位置,我们建议您选择:<年代trong class="recommended-country">.
你也可以从以下列表中选择一个网站: 选择中国网站(中文或英文)以获得最佳网站性能。其他MathWorks国家站点没有针对您所在位置的访问进行优化。如何获得最佳的网站性能
欧洲