双向长期短期记忆(BiLSTM)层
双向LSTM (BiLSTM)层学习双向长期时间步长之间的依赖关系的时间序列或序列数据。这些依赖项可以是有用的,当你想要完成网络学习时间序列在每个时间步。
创建一个双向LSTM层和设置层
NumHiddenUnits
设置额外的层
OutputMode
的名字
NumHiddenUnits
- - - - - -隐藏的数量单位(也称为隐藏的大小),指定为一个正整数。 隐藏单位的数量对应于记忆的信息量之间的时间步骤(隐藏状态)。隐藏的状态可以包含信息从之前的所有时间步骤,不管序列长度。如果隐藏单位的数量太大,然后层可能overfit训练数据。这个值可以从几十到几千不等。 隐藏的状态不限制时间的数量在迭代步骤处理。将你的序列分割成更小的训练序列,使用 例子:“SequenceLength”
trainingOptions
OutputMode
- - - - - -“序列”
(默认)|“最后一次”
输出模式,指定为以下之一:
“序列”
“最后一次”
HasStateInputs
- - - - - -0(假)(默认)|1(真正的)
国旗的国家输入层,指定为 如果 如果
HasStateOutputs
- - - - - -0(假)(默认)|1(真正的)
国旗的国家输出层,指定为 如果 如果
InputSize
- - - - - -“汽车”
(默认)|输入大小,指定为一个正整数或 例子:
StateActivationFunction
- - - - - -的双曲正切
(默认)|“softsign”
激活函数来更新细胞和隐藏状态,指定为以下之一: 层使用这个选项作为函数
的双曲正切
“softsign”
GateActivationFunction
- - - - - -“乙状结肠”
(默认)|“hard-sigmoid”
激活函数适用于盖茨,指定为以下之一:
层使用这个选项作为函数
“乙状结肠”
“hard-sigmoid”
CellState
- - - - - -细胞状态用于层操作,指定为一个 手动设置该属性后,调用 如果
HiddenState
- - - - - -隐藏的状态使用层操作,指定为一个 手动设置该属性后,调用 如果
InputWeightsInitializer
- - - - - -“glorot”
(默认)|“他”
“正交”
“narrow-normal”|“零”|“的”|函数处理
函数初始化输入重量、指定为以下之一: 函数处理——初始化输入自定义函数的权重。如果你指定一个函数处理,那么必须表单的功能 层时才初始化输入权重 数据类型:
“glorot”
“他”
“正交”
“narrow-normal”
“零”
“的”
字符
RecurrentWeightsInitializer
- - - - - -“正交”
(默认)|“glorot”
“他”
“narrow-normal”|“零”|“的”|函数处理
初始化函数周期性的权重,指定为以下之一: 函数处理,用自定义函数初始化权重复发。如果你指定一个函数处理,那么必须表单的功能 层只初始化时的复发性权重 数据类型:
“正交”
“glorot”
“他”
“narrow-normal”
“零”
“的”
字符
BiasInitializer
- - - - - -“unit-forget-gate”
(默认)|“narrow-normal”
“的”
函数初始化倾向,指定为以下之一: 函数处理与自定义函数——初始化倾向。如果你指定一个函数处理,那么必须表单的功能 层时才初始化倾向 数据类型:
“unit-forget-gate”
“narrow-normal”
“的”
字符
InputWeights
- - - - - -[]
(默认)|输入权值,指定为一个矩阵。 输入权重矩阵是一个串联的八个组件的输入权重矩阵(盖茨)双向LSTM层。八个矩阵是垂直连接按照以下顺序: 输入门(向前) 忘记门(向前) 细胞候选人(向前) 输出门(向前) 输入门(向后) 忘记门(向后) 细胞候选人(向后) 输出门(向后) 输入权重可学的参数。训练一个网络时,如果 在培训时,
trainNetwork
RecurrentWeights
- - - - - -[]
(默认)|经常性的权重,指定为一个矩阵。 复发性权重矩阵是一个连接八复发性权重矩阵的组件(盖茨)双向LSTM层。八个矩阵是垂直连接按照以下顺序: 输入门(向前) 忘记门(向前) 细胞候选人(向前) 输出门(向前) 输入门(向后) 忘记门(向后) 细胞候选人(向后) 输出门(向后) 复发性权重可学的参数。训练一个网络时,如果 在培训时,
trainNetwork
偏见
- - - - - -[]
(默认)|层偏见,指定为一个数值向量。 偏差向量是一个串联的八个偏差向量的分量(盖茨)双向LSTM层。八个向量是垂直连接按照以下顺序: 输入门(向前) 忘记门(向前) 细胞候选人(向前) 输出门(向前) 输入门(向后) 忘记门(向后) 细胞候选人(向后) 输出门(向后) 层偏差是可学的参数。当你训练一个网络,如果 在培训时,
trainNetwork
InputWeightsLearnRateFactor
- - - - - -学习速率因子输入权值,指定为数字标量或1-by-8数值向量。 软件由全球学习速率繁殖这个因素来确定输入的学习速率因子层的权重。例如,如果 的值来控制四个人的学习速率因子矩阵 输入门(向前) 忘记门(向前) 细胞候选人(向前) 输出门(向前) 输入门(向后) 忘记门(向后) 细胞候选人(向后) 输出门(向后) 为所有的矩阵指定相同的值,指定一个负的标量。 例子:trainingOptions
0.1
RecurrentWeightsLearnRateFactor
- - - - - -反复的学习速率因素权重,指定为数字标量或1-by-8数值向量。 软件由全球学习速率繁殖这个因素来确定学习速率的复发性层的权重。例如,如果 控制学习的价值率四个人矩阵 输入门(向前) 忘记门(向前) 细胞候选人(向前) 输出门(向前) 输入门(向后) 忘记门(向后) 细胞候选人(向后) 输出门(向后) 为所有的矩阵指定相同的值,指定一个负的标量。 例子: 例子:trainingOptions
0.1
(1 2 1 1 1 2 1 1)
BiasLearnRateFactor
- - - - - -学习速率因子的偏见,指定为负的标量或1-by-8数值向量。 软件由全球学习速率繁殖这个因素来确定学习速率的偏见在这一层。例如,如果 的值来控制四个人的学习速率因子矩阵 输入门(向前) 忘记门(向前) 细胞候选人(向前) 输出门(向前) 输入门(向后) 忘记门(向后) 细胞候选人(向后) 输出门(向后) 为所有的矩阵指定相同的值,指定一个负的标量。 例子: 例子:trainingOptions
2
(1 2 1 1 1 2 1 1)
InputWeightsL2Factor
- - - - - -L2正则化因子的输入权值,指定为数字标量或1-by-8数值向量。 软件增加这个因素在全球L2正则化因子确定L2正则化因子为输入层的权重。例如,如果 的值来控制四个人的L2正则化因子矩阵 输入门(向前) 忘记门(向前) 细胞候选人(向前) 输出门(向前) 输入门(向后) 忘记门(向后) 细胞候选人(向后) 输出门(向后) 为所有的矩阵指定相同的值,指定一个负的标量。 例子: 例子:trainingOptions
0.1
(1 2 1 1 1 2 1 1)
RecurrentWeightsL2Factor
- - - - - -复发性权重L2正则化因子,指定为数字标量或1-by-8数值向量。 软件增加这个因素在全球L2正则化因子确定L2正则化因子的复发性层的权重。例如,如果 的值来控制四个人的L2正则化因子矩阵 输入门(向前) 忘记门(向前) 细胞候选人(向前) 输出门(向前) 输入门(向后) 忘记门(向后) 细胞候选人(向后) 输出门(向后) 为所有的矩阵指定相同的值,指定一个负的标量。 例子: 例子:trainingOptions
0.1
(1 2 1 1 1 2 1 1)
BiasL2Factor
- - - - - -L2正则化因子的偏见,指定为负的标量。 全球的软件增加这个因素 的值来控制四个人的L2正则化因子矩阵 输入门(向前) 忘记门(向前) 细胞候选人(向前) 输出门(向前) 输入门(向后) 忘记门(向后) 细胞候选人(向后) 输出门(向后) 为所有的矩阵指定相同的值,指定一个负的标量。 例子: 例子:trainingOptions
2
(1 2 1 1 1 2 1 1)
的名字
- - - - - -”
(默认)|图层名称,指定为一个特征向量或字符串标量。为
数据类型:字符
NumInputs
- - - - - -1
|3
输入层的数量。 如果 如果 数据类型:双
InputNames
- - - - - -{'在'}
|{‘在’,‘隐藏’,‘细胞’}
输入层的名称。 如果 如果
NumOutputs
- - - - - -1
|3
输出层的数量。 如果 如果 数据类型:双
OutputNames
- - - - - -{“出”}
|{‘出来’,‘隐藏’,‘细胞’}
输出层的名称。 如果 如果
创建一个双向LSTM图层名称 包括一个双向LSTM层中层= bilstmLayer (100
层= BiLSTMLayer属性:名称:“bilstm1”InputNames: {’’} OutputNames:{“出”}NumInputs: 1 NumOutputs: 1 HasStateInputs: 0 HasStateOutputs: 0 Hyperparameters InputSize:“汽车”NumHiddenUnits: 100 OutputMode:“序列”StateActivationFunction:“双曲正切GateActivationFunction: InputWeights乙状结肠的可学的参数:[]RecurrentWeights:[]偏见:[]HiddenState状态参数:[]CellState:[]显示所有属性
inputSize = 12;numHiddenUnits = 100;numClasses = 9;层= [
层x1 = 5层阵列层:1“12维度2序列输入序列输入”BiLSTM BiLSTM 100隐藏单位3“完全连接9完全连接层4”Softmax Softmax crossentropyex 5”分类输出
层一层一层数组或图传递数据指定为格式化 你可以与这些交互 此表显示了支持的输入格式金宝app 在 使用这些输入格式 如果 如果
输入格式 OutputMode
输出格式
“认知行为治疗”
“序列”
“认知行为治疗”
“最后一次”
“CB”
输入格式 OutputMode
输出格式
“SCBT”
“序列”
“认知行为治疗”
“最后一次”
“CB”
“SSCBT”
“序列”
“认知行为治疗”
“最后一次”
“CB”
“SSSCBT”
“序列”
“认知行为治疗”
“最后一次”
“CB”
行为改变R2019a
从R2019a开始,软件,默认情况下,初始化层使用Glorot初始化输入这一层的权重。这种行为可以帮助稳定培训和通常减少深层网络的训练时间。 在以前的版本中,软件,默认情况下,初始化层输入使用的抽样权重0.01零均值和方差的正态分布。复制这种行为,设置
行为改变R2019a
从R2019a开始,软件,默认情况下,初始化这一层的层的权重 在以前的版本中,软件,默认情况下,初始化层反复使用的抽样权重0.01零均值和方差的正态分布。复制这种行为,设置
[1]Glorot,泽维尔,Yoshua Bengio。“理解的难度训练前馈神经网络。”在
[2]他开明、象屿张任Shaoqing,剑太阳。“深深入整流器:超越人类表现ImageNet分类。”在
[3]萨克斯,安德鲁·M。,James L. McClelland, and Surya Ganguli. "Exact solutions to the nonlinear dynamics of learning in deep linear neural networks."arXiv预印本arXiv: 1312.6120
使用笔记和限制:
在生成代码与英特尔 的 的 的
使用笔记和限制: GPU代码生成的 GPU代码生成的 的
trainingOptions
|trainNetwork
|sequenceInputLayer
|lstmLayer
|gruLayer
|convolution1dLayer
|maxPooling1dLayer
|averagePooling1dLayer
|globalMaxPooling1dLayer
|globalAveragePooling1dLayer
如果dispone di una versione modificata di questo esempio。Desideri aprire questo esempio con le modifiche星期二吗?
海脂肪clic苏联合国collegamento切corrisponde questo第一MATLAB: Esegui il第一inserendolo所以nella隙缝di第一MATLAB。我浏览器web非supportano金宝app comandi MATLAB。
选择一个网站翻译内容,看到当地事件和提供。根据你的位置,我们建议您选择:
你也可以从下面的列表中选择一个网站: 选择中国网站(中文或英文)最佳站点的性能。其他MathWorks国家网站不优化的访问你的位置。表现最好的网站怎么走吗
欧洲