封闭的复发性单元(格勒乌)层
格勒乌层学习时间步骤时间序列和序列数据之间的依赖关系。
创建一个格勒乌层和设置层
NumHiddenUnits
设置额外的层
OutputMode
的名字
NumHiddenUnits
- - - - - -<年代pan itemprop="purpose">隐藏的数量单位隐藏的数量单位(也称为隐藏的大小),指定为一个正整数。 隐藏单位的数量对应于记忆的信息量之间的时间步骤(隐藏状态)。隐藏的状态可以包含信息从之前的所有时间步骤,不管序列长度。如果隐藏单位的数量太大,然后层可能overfit训练数据。这个值可以从几十到几千不等。 隐藏的状态不限制时间的数量在迭代步骤处理。将你的序列分割成更小的训练序列,使用 例子:“SequenceLength”
trainingOptions
OutputMode
- - - - - -<年代pan itemprop="purpose">输出模式“序列”
(默认)|<年代pan itemprop="inputvalue">“最后一次”
输出模式,指定为以下之一:
“序列”
“最后一次”
HasStateInputs
- - - - - -<年代pan itemprop="purpose">为输入层0(假)(默认)|<年代pan itemprop="inputvalue">1(真正的)
国旗的国家输入层,指定为 如果 如果
HasStateOutputs
- - - - - -<年代pan itemprop="purpose">国旗的国家输出层0(假)(默认)|<年代pan itemprop="inputvalue">1(真正的)
国旗的国家输出层,指定为 如果 如果
ResetGateMode
- - - - - -<年代pan itemprop="purpose">重置门模式“after-multiplication”
(默认)|<年代pan itemprop="inputvalue">“before-multiplication”
|<年代pan itemprop="inputvalue">“recurrent-bias-after-multiplication”
重置门模式下,指定为以下之一: 更多信息重置门计算,看看
“after-multiplication”
“before-multiplication”
“recurrent-bias-after-multiplication”
InputSize
- - - - - -<年代pan itemprop="purpose">输入的大小“汽车”
(默认)|<年代pan itemprop="inputvalue">正整数输入大小,指定为一个正整数或 例子:
StateActivationFunction
- - - - - -<年代pan itemprop="purpose">激活函数来更新隐藏状态的双曲正切
(默认)|<年代pan itemprop="inputvalue">“softsign”
激活函数来更新隐藏状态,指定为以下之一: 层使用这个选项作为函数<年代pan class="inlineequation">
在计算更新隐藏状态。
的双曲正切
“softsign”
GateActivationFunction
- - - - - -<年代pan itemprop="purpose">激活函数适用于盖茨“乙状结肠”
(默认)|<年代pan itemprop="inputvalue">“hard-sigmoid”
激活函数适用于盖茨,指定为以下之一:
层使用这个选项作为函数<年代pan class="inlineequation">
在计算层门。
“乙状结肠”
“hard-sigmoid”
HiddenState
- - - - - -<年代pan itemprop="purpose">隐藏状态隐藏的状态使用层操作,指定为一个 手动设置该属性后,调用 如果
InputWeightsInitializer
- - - - - -<年代pan itemprop="purpose">函数来初始化输入权重“glorot”
(默认)|<年代pan itemprop="inputvalue">“他”
|<年代pan itemprop="inputvalue">“正交”
|<年代pan itemprop="inputvalue">“narrow-normal”|<年代pan itemprop="inputvalue">“零”|<年代pan itemprop="inputvalue">“的”|<年代pan itemprop="inputvalue">函数处理
函数初始化输入重量、指定为以下之一: 函数处理——初始化输入自定义函数的权重。如果你指定一个函数处理,那么必须表单的功能 层时才初始化输入权重 数据类型:
“glorot”
“他”
“正交”
“narrow-normal”
“零”
“的”
字符
RecurrentWeightsInitializer
- - - - - -<年代pan itemprop="purpose">函数来初始化权重复发“正交”
(默认)|<年代pan itemprop="inputvalue">“glorot”
|<年代pan itemprop="inputvalue">“他”
|<年代pan itemprop="inputvalue">“narrow-normal”|<年代pan itemprop="inputvalue">“零”|<年代pan itemprop="inputvalue">“的”|<年代pan itemprop="inputvalue">函数处理
初始化函数周期性的权重,指定为以下之一: 函数处理,用自定义函数初始化权重复发。如果你指定一个函数处理,那么必须表单的功能 层只初始化时的复发性权重 数据类型:
“正交”
“glorot”
“他”
“narrow-normal”
“零”
“的”
字符
BiasInitializer
- - - - - -<年代pan itemprop="purpose">函数来初始化倾向“零”
(默认)|<年代pan itemprop="inputvalue">“narrow-normal”
|<年代pan itemprop="inputvalue">“的”
|<年代pan itemprop="inputvalue">函数处理函数初始化倾向,指定为以下之一: 函数处理与自定义函数——初始化倾向。如果你指定一个函数处理,那么必须表单的功能 层时才初始化倾向 数据类型:
0的
“narrow-normal”
“的”
字符
InputWeights
- - - - - -<年代pan itemprop="purpose">输入重量[]
(默认)|<年代pan itemprop="inputvalue">矩阵输入权值,指定为一个矩阵。 输入权重矩阵是一个连接的三个输入权重矩阵格勒乌中的组件层。三个矩阵是垂直连接的按照以下顺序: 重设门 更新门 候选人的状态 输入权重可学的参数。训练一个网络时,如果 在培训时,
trainNetwork
RecurrentWeights
- - - - - -<年代pan itemprop="purpose">复发性权重[]
(默认)|<年代pan itemprop="inputvalue">矩阵经常性的权重,指定为一个矩阵。 复发性权重矩阵的连接三个复发性权重矩阵格勒乌中的组件层。这三个矩阵是垂直连接按照以下顺序: 重设门 更新门 候选人的状态 复发性权重可学的参数。训练一个网络时,如果 在训练时间
trainNetwork
偏见
- - - - - -<年代pan itemprop="purpose">层的偏见[]
(默认)|<年代pan itemprop="inputvalue">数值向量一层一层格勒乌的偏见,指定为一个数值向量。 如果 重设门 更新门 候选人的状态 在这种情况下,在培训时, 如果 重设门 更新门 候选人的状态 重置门(复发性偏见) 更新门(复发性偏见) 候选人状态(复发性偏见) 在这种情况下,在培训时, 层偏差是可学的参数。当你训练一个网络,如果 更多信息重置门计算,看看
trainNetwork
InputWeightsLearnRateFactor
- - - - - -<年代pan itemprop="purpose">学习速率因子输入权重学习速率因子输入权值,指定为数字标量或1×3数值向量。 软件由全球学习速率繁殖这个因素来确定输入的学习速率因子层的权重。例如,如果 的值来控制三个个体的学习速率因子矩阵 重设门 更新门 候选人的状态 为所有的矩阵指定相同的值,指定一个负的标量。 例子: 例子:trainingOptions
2
(1 2)
RecurrentWeightsLearnRateFactor
- - - - - -<年代pan itemprop="purpose">反复的学习速率因素权重反复的学习速率因素权重,指定为数字标量或1×3数值向量。 软件由全球学习速率繁殖这个因素来确定学习速率的复发性层的权重。例如,如果 的值来控制三个个体的学习速率因子矩阵 重设门 更新门 候选人的状态 为所有的矩阵指定相同的值,指定一个负的标量。 例子: 例子:trainingOptions
2
(1 2)
BiasLearnRateFactor
- - - - - -<年代pan itemprop="purpose">学习速率因子偏见学习速率因子的偏见,指定为负的标量或1×3数值向量。 软件由全球学习速率繁殖这个因素来确定学习速率的偏见在这一层。例如,如果 控制学习速率的价值因素三个独立的向量 重设门 更新门 候选人的状态 如果 为所有的向量指定相同的值,指定一个负的标量。 例子: 例子:trainingOptions
2
(1 2)
InputWeightsL2Factor
- - - - - -<年代pan itemprop="purpose">L2正则化因子输入权重L2正则化因子的输入权值,指定为数字标量或1×3数值向量。 软件增加这个因素在全球L2正则化因子确定L2正则化因子为输入层的权重。例如,如果 控制L2正规化的价值因素三个个人矩阵 重设门 更新门 候选人的状态 为所有的矩阵指定相同的值,指定一个负的标量。 例子: 例子:trainingOptions
2
(1 2)
RecurrentWeightsL2Factor
- - - - - -<年代pan itemprop="purpose">复发性权重的L2正则化因素复发性权重L2正则化因子,指定为数字标量或1×3数值向量。 软件增加这个因素在全球L2正则化因子确定L2正则化因子的复发性层的权重。例如,如果 控制L2正规化的价值因素三个个人矩阵 重设门 更新门 候选人的状态 为所有的矩阵指定相同的值,指定一个负的标量。 例子: 例子:trainingOptions
2
(1 2)
BiasL2Factor
- - - - - -<年代pan itemprop="purpose">偏见的L2正则化因素L2正则化因子的偏见,指定为负的标量或1×3数值向量。 全球的软件增加这个因素 控制个人L2正则化因子的值向量 重设门 更新门 候选人的状态 如果 为所有的向量指定相同的值,指定一个负的标量。 例子: 例子:trainingOptions
2
(1 2)
的名字
- - - - - -<年代pan itemprop="purpose">层的名字”
(默认)|<年代pan itemprop="inputvalue">特征向量图层名称,指定为一个特征向量或字符串标量。为
数据类型:字符
NumInputs
- - - - - -<年代pan itemprop="purpose">输入数量1
|<年代pan itemprop="inputvalue">2
输入层的数量。 如果 如果 数据类型:双
InputNames
- - - - - -<年代pan itemprop="purpose">输入名字{'在'}
|<年代pan itemprop="inputvalue">{“在”、“隐藏”}
输入层的名称。 如果 如果
NumOutputs
- - - - - -<年代pan itemprop="purpose">数量的输出1
|<年代pan itemprop="inputvalue">2
输出层的数量。 如果 如果 数据类型:双
OutputNames
- - - - - -<年代pan itemprop="purpose">输出的名字{“出”}
|<年代pan itemprop="inputvalue">{‘出来’,‘隐藏’}
输出层的名称。 如果 如果
创建一个格勒乌层的名称 在一个包括格勒乌层层= gruLayer (100<年代pan style="color:#A020F0">“名字”
层= GRULayer属性:名称:“gru1”InputNames: {’’} OutputNames:{“出”}NumInputs: 1 NumOutputs: 1 HasStateInputs: 0 HasStateOutputs: 0 Hyperparameters InputSize:“汽车”NumHiddenUnits: 100 OutputMode:“序列”StateActivationFunction:“双曲正切GateActivationFunction:乙状结肠的ResetGateMode:‘after-multiplication InputWeights可学的参数:[]RecurrentWeights:[]偏见:[]HiddenState状态参数:[]显示所有属性
inputSize = 12;numHiddenUnits = 100;numClasses = 9;层= [<年代pan style="color:#0000FF">…
层x1 = 5层阵列层:1“12维度2序列输入序列输入”格勒乌格鲁100隐藏单位3“完全连接9完全连接层4”Softmax Softmax crossentropyex 5”分类输出
格勒乌层学习时间步骤时间序列和序列数据之间的依赖关系。
的<年代pan class="emphasis">隐藏状态 以下组件控制层的隐藏状态。 格勒乌层的权重可学的是输入权重
在哪里 取决于偏差向量
其中下标 如果
其中下标 在时间步隐藏的状态
下面的公式描述的组件在时间步 在这些计算,<年代pan class="inlineequation">
和<年代pan class="inlineequation">
分别表示门和状态激活功能。的
组件 目的
重置门( 控制水平的状态重置
更新门( 控制水平的状态更新
候选人状态(<年代pan class="inlineequation">
) 更新添加到隐藏状态的控制水平
组件 ResetGateMode
公式
重设门 “after-multiplication”
“before-multiplication”
“recurrent-bias-after-multiplication”
更新门 “after-multiplication”
“before-multiplication”
“recurrent-bias-after-multiplication”
候选人的状态 “after-multiplication”
“before-multiplication”
“recurrent-bias-after-multiplication”
StateActivationFunction
GateActivationFunction
层一层一层数组或图传递数据指定为格式化 你可以与这些交互 此表显示了支持的输入格式金宝app 在 使用这些输入格式 如果 如果
输入格式 OutputMode
输出格式
“认知行为治疗”
“序列”
“认知行为治疗”
“最后一次”
“CB”
输入格式 OutputMode
输出格式
“SCBT”
“序列”
“认知行为治疗”
“最后一次”
“CB”
“SSCBT”
“序列”
“认知行为治疗”
“最后一次”
“CB”
“SSSCBT”
“序列”
“认知行为治疗”
“最后一次”
“CB”
[1]曹、Kyunghyun Bart Van Merrienboer卡Gulcehre, Dzmitry Bahdanau, Fethi Bougares, Holger Schwenk, Yoshua Bengio。“学习使用短语表示RNN encoder-decoder统计机器翻译。”
[2]Glorot,泽维尔,Yoshua Bengio。“理解的难度训练前馈神经网络。”在
[3]他开明、象屿张任Shaoqing,剑太阳。“深深入整流器:超越人类表现ImageNet分类。”在
[4]萨克斯,安德鲁·M。,James L. McClelland, and Surya Ganguli. "Exact solutions to the nonlinear dynamics of learning in deep linear neural networks."arXiv预印本arXiv: 1312.6120
使用笔记和限制:
的
的
的
的
使用笔记和限制: 的 的 的 的
trainingOptions
|<年代pan itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">trainNetwork
|<年代pan itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">sequenceInputLayer
|<年代pan itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">lstmLayer
|<年代pan itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">bilstmLayer
|<年代pan itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">convolution1dLayer
|<年代pan itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">maxPooling1dLayer
|<年代pan itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">averagePooling1dLayer
|<年代pan itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">globalMaxPooling1dLayer
|<年代pan itemscope itemtype="//www.tatmou.com/help/schema/MathWorksDocPage/SeeAlso" itemprop="seealso">globalAveragePooling1dLayer
你点击一个链接对应MATLAB命令: 运行该命令通过输入MATLAB命令窗口。Web浏览器不支持MATLAB命令。金宝app
选择一个网站翻译内容,看到当地事件和提供。根据你的位置,我们建议您选择:<年代trong class="recommended-country">。
你也可以从下面的列表中选择一个网站: 选择中国网站(中文或英文)最佳站点的性能。其他MathWorks国家网站不优化的访问你的位置。表现最好的网站怎么走吗
欧洲