长短期内存网络GydF4y2Ba

本主题解释了如何使用长短期记忆(LSTM)网络处理序列和时间序列数据进行分类和回归任务。有关如何使用LSTM网络对序列数据进行分类的示例,请参见GydF4y2Ba利用深度学习进行序列分类GydF4y2Ba.GydF4y2Ba

LSTM网络是一种复发性神经网络(RNN),可以在序列数据的时间步长之间学习长期依赖性。GydF4y2Ba

LSTM网络架构GydF4y2Ba

LSTM网络的核心组件是序列输入层和LSTM层。一种GydF4y2Ba序列输入层GydF4y2Ba输入序列或时间序列数据到网络。一个GydF4y2BaLSTM层GydF4y2Ba学习序列数据时间步长的依赖关系。GydF4y2Ba

该图说明了用于分类的简单LSTM网络的体系结构。网络从序列输入层开始,后跟LSTM层。为了预测类标签,网络以完全连接的图层,软MAX层和分类输出层结尾。GydF4y2Ba

该图说明了用于回归的简单LSTM网络的体系结构。网络从序列输入层开始,后跟LSTM层。网络以完全连接的层和回归输出层结尾。GydF4y2Ba

这张图说明了视频分类网络的体系结构。要向网络输入图像序列,使用序列输入层。使用卷积层提取特征,即对视频的每一帧单独进行卷积运算,先使用序列折叠层,再使用卷积层,再使用序列展开层。要使用LSTM层来学习向量序列,请使用扁平化层,然后是LSTM层和输出层。GydF4y2Ba

分类LSTM网络GydF4y2Ba

为了创建用于序列到标签分类的LSTM网络,创建包含序列输入层,LSTM层,完全连接的层,软MAX层和分类输出层的层数组。GydF4y2Ba

将序列输入层的大小设置为输入数据的特征数。将完全连接层的大小设置为类的数量。您不需要指定序列长度。GydF4y2Ba

对于LSTM图层,指定隐藏单元的数量和输出模式GydF4y2Ba'最后的'GydF4y2Ba.GydF4y2Ba

numFeatures = 12;numhidendunits = 100;numclasses = 9;层= [GydF4y2Ba......GydF4y2BasequenceInputlayer(numfeatures)lstmlayer(numhidentunits,GydF4y2Ba'OutputMode'GydF4y2Ba那GydF4y2Ba'最后的'GydF4y2Ba)全连接列(numclasses)softmaxlayer分类层];GydF4y2Ba

有关如何训练LSTM网络进行序列到标签分类和对新数据进行分类的示例,请参见GydF4y2Ba利用深度学习进行序列分类GydF4y2Ba.GydF4y2Ba

要为序列到序列分类创建LSTM网络,请使用与序列到标签分类相同的架构,但将LSTM层的输出模式设置为GydF4y2Ba'顺序'GydF4y2Ba.GydF4y2Ba

numFeatures = 12;numhidendunits = 100;numclasses = 9;层= [GydF4y2Ba......GydF4y2BasequenceInputlayer(numfeatures)lstmlayer(numhidentunits,GydF4y2Ba'OutputMode'GydF4y2Ba那GydF4y2Ba'顺序'GydF4y2Ba)全连接列(numclasses)softmaxlayer分类层];GydF4y2Ba

回归LSTM网络GydF4y2Ba

为了为序列到一个回归创建LSTM网络,创建包含序列输入层,LSTM层,完全连接层和回归输出层的层数组。GydF4y2Ba

将序列输入层的大小设置为输入数据的特征数。将完全连接层的大小设置为响应数。您不需要指定序列长度。GydF4y2Ba

对于LSTM图层,指定隐藏单元的数量和输出模式GydF4y2Ba'最后的'GydF4y2Ba.GydF4y2Ba

numFeatures = 12;numHiddenUnits = 125;numResponses = 1;层= [GydF4y2Ba......GydF4y2BasequenceInputlayer(numfeatures)lstmlayer(numhidentunits,GydF4y2Ba'OutputMode'GydF4y2Ba那GydF4y2Ba'最后的'GydF4y2Ba) fullyConnectedLayer (numResponses) regressionLayer];GydF4y2Ba

要为序列到序列回归创建LSTM网络,请使用与序列到一个回归相同的架构,但将LSTM层的输出模式设置为GydF4y2Ba'顺序'GydF4y2Ba.GydF4y2Ba

numFeatures = 12;numHiddenUnits = 125;numResponses = 1;层= [GydF4y2Ba......GydF4y2BasequenceInputlayer(numfeatures)lstmlayer(numhidentunits,GydF4y2Ba'OutputMode'GydF4y2Ba那GydF4y2Ba'顺序'GydF4y2Ba) fullyConnectedLayer (numResponses) regressionLayer];GydF4y2Ba

有关如何培训LSTM网络的示例以获取序列到序列回归并在新数据上预测,请参阅GydF4y2Ba使用深度学习的序列到序列回归GydF4y2Ba.GydF4y2Ba

视频分类网络GydF4y2Ba

为包含图像序列的数据(如视频数据和医学图像)创建深度学习网络,使用序列输入层指定图像序列输入。GydF4y2Ba

使用卷积层提取特征,即对视频的每一帧单独进行卷积运算,先使用序列折叠层,再使用卷积层,再使用序列展开层。要使用LSTM层来学习向量序列,请使用扁平化层,然后是LSTM层和输出层。GydF4y2Ba

输入= [28 28 1];filtersize = 5;numfilters = 20;numhidendunits = 200;numclasses = 10;层= [GydF4y2Ba......GydF4y2BasequenceInputLayer(输入,GydF4y2Ba'名称'GydF4y2Ba那GydF4y2Ba'输入'GydF4y2Ba)SechandFoldingLayer(GydF4y2Ba'名称'GydF4y2Ba那GydF4y2Ba'折叠'GydF4y2Ba) convolution2dLayer (filterSize numFilters,GydF4y2Ba'名称'GydF4y2Ba那GydF4y2Ba“conv”GydF4y2Babatchnormalizationlayer(GydF4y2Ba'名称'GydF4y2Ba那GydF4y2Babn的GydF4y2Ba)剥离(GydF4y2Ba'名称'GydF4y2Ba那GydF4y2Ba“relu”GydF4y2Ba)SequencunfoldingLayer(GydF4y2Ba'名称'GydF4y2Ba那GydF4y2Ba“展开”GydF4y2Ba) flattenLayer (GydF4y2Ba'名称'GydF4y2Ba那GydF4y2Ba'扁平'GydF4y2Ba)lstmlayer(numhidendunits,GydF4y2Ba'OutputMode'GydF4y2Ba那GydF4y2Ba'最后的'GydF4y2Ba那GydF4y2Ba'名称'GydF4y2Ba那GydF4y2Ba'lstm'GydF4y2Ba) fullyConnectedLayer (numClassesGydF4y2Ba'名称'GydF4y2Ba那GydF4y2Ba“俱乐部”GydF4y2Ba) softmaxLayer (GydF4y2Ba'名称'GydF4y2Ba那GydF4y2Ba'softmax'GydF4y2Ba) classificationLayer (GydF4y2Ba'名称'GydF4y2Ba那GydF4y2Ba'分类'GydF4y2Ba));GydF4y2Ba

将图层转换为图层图并连接GydF4y2Ba小匹匹匹匹配GydF4y2Ba序列折叠层输出到序列展开层的相应输入。GydF4y2Ba

Lgraph = LayerGraph(层);Lgraph = ConnectLayers(LAPHAGE,GydF4y2Ba'折叠/小纤维'GydF4y2Ba那GydF4y2Ba“展开/ miniBatchSize”GydF4y2Ba);GydF4y2Ba

有关如何训练深度学习网络进行视频分类的示例,请参见GydF4y2Ba使用深度学习对视频进行分类GydF4y2Ba.GydF4y2Ba

更深的LSTM网络GydF4y2Ba

通过使用输出模式插入额外的LSTM层,可以使LSTM网络更深入GydF4y2Ba'顺序'GydF4y2Ba在LSTM层之前。为了防止过拟合,可以在LSTM层之后插入dropout层。GydF4y2Ba

对于序列到标签的分类网络,最后一层LSTM的输出模式必须为GydF4y2Ba'最后的'GydF4y2Ba.GydF4y2Ba

numFeatures = 12;numhiddentunits1 = 125;numhidendunits2 = 100;numclasses = 9;层= [GydF4y2Ba......GydF4y2BasequenceInputLayer numFeatures lstmLayer (numHiddenUnits1,GydF4y2Ba'OutputMode'GydF4y2Ba那GydF4y2Ba'顺序'GydF4y2Ba)DropoutLayer(0.2)LSTMLAYER(numhidendunits2,GydF4y2Ba'OutputMode'GydF4y2Ba那GydF4y2Ba'最后的'GydF4y2Ba)DropoutLayer(0.2)全连接列(NumClasses)SoftMaxLayer分类层];GydF4y2Ba

对于序列到序列的分类网络,最后一层LSTM的输出模式必须为GydF4y2Ba'顺序'GydF4y2Ba.GydF4y2Ba

numFeatures = 12;numhiddentunits1 = 125;numhidendunits2 = 100;numclasses = 9;层= [GydF4y2Ba......GydF4y2BasequenceInputLayer numFeatures lstmLayer (numHiddenUnits1,GydF4y2Ba'OutputMode'GydF4y2Ba那GydF4y2Ba'顺序'GydF4y2Ba)DropoutLayer(0.2)LSTMLAYER(numhidendunits2,GydF4y2Ba'OutputMode'GydF4y2Ba那GydF4y2Ba'顺序'GydF4y2Ba)DropoutLayer(0.2)全连接列(NumClasses)SoftMaxLayer分类层];GydF4y2Ba

层数GydF4y2Ba

层GydF4y2Ba 描述GydF4y2Ba

sequenceInputLayerGydF4y2Ba

序列输入层将序列数据输入网络。GydF4y2Ba

lstmLayerGydF4y2Ba

LSTM层在时间序列和序列数据中的时间步骤之间学习长期依赖性。GydF4y2Ba

bilstmLayerGydF4y2Ba

双向LSTM(BILSTM)层学习时间序列或序列数据的时间步长之间的双向长期依赖性。当您希望网络每次步骤中从完整的时间序列中学习时,这些依赖项可能是有用的。GydF4y2Ba

格拉勒GydF4y2Ba

GRU层学习时间序列和序列数据的时间步骤之间的依赖性。GydF4y2Ba

SequenceFoldingLayer.GydF4y2Ba

序列折叠层将一批图像序列转换为一批图像。利用序列折叠层对图像序列的时间步长单独进行卷积运算。GydF4y2Ba

sequencfoldinglayer.GydF4y2Ba

序列展开层在序列折叠后恢复输入数据的序列结构。GydF4y2Ba

Flattenlayer.GydF4y2Ba

扁平层将输入的空间维度折叠为通道维度。GydF4y2Ba

WordembeddingLayer.GydF4y2Ba(文本分析工具箱)GydF4y2Ba

词嵌入层将词索引映射到向量。GydF4y2Ba

分类,预测和预测GydF4y2Ba

对新数据进行分类或作出预测,使用GydF4y2Ba分类GydF4y2Ba和GydF4y2Ba预测GydF4y2Ba.GydF4y2Ba

LSTM网络可以记住预测之间的网络状态。当您事先没有完整的时间序列时,或者如果您想对一个长时间序列进行多次预测时,网络状态非常有用。GydF4y2Ba

对时间序列的部分进行预测和分类,更新网络状态,使用GydF4y2Bapredictandanddatestate.GydF4y2Ba和GydF4y2BaclassifyandupdateState.GydF4y2Ba.重置预测之间的网络状态,使用GydF4y2BaresetStateGydF4y2Ba.GydF4y2Ba

有关如何预测序列未来时间步长的示例,请参见GydF4y2Ba基于深度学习的时间序列预测GydF4y2Ba.GydF4y2Ba

序列填充,截断和分裂GydF4y2Ba

LSTM网络支持具有不同序列金宝app长度的输入数据。当通过网络传递数据时,软件焊盘,截断或拆分序列,使每个迷你批处理中的所有序列具有指定的长度。您可以指定使用序列长度和用于使用该序列填充序列的值GydF4y2BaSequenceLengthGydF4y2Ba和GydF4y2BaSequencePaddingValueGydF4y2Ba名称值对参数GydF4y2BatrainingOptionsGydF4y2Ba.GydF4y2Ba

训练网络后,使用相同的小批大小和填充选项时使用GydF4y2Ba分类GydF4y2Ba那GydF4y2Ba预测GydF4y2Ba那GydF4y2BaclassifyandupdateState.GydF4y2Ba那GydF4y2Bapredictandanddatestate.GydF4y2Ba,GydF4y2Ba激活GydF4y2Ba功能。GydF4y2Ba

按长度排序序列GydF4y2Ba

为了减少填充或截断序列时填充或丢弃数据的量,请尝试按顺序对数据进行排序。要按顺序长度对数据进行排序,首先通过应用获取每个序列的列数GydF4y2Ba尺寸(x,2)GydF4y2Ba每个序列使用GydF4y2BacellfunGydF4y2Ba.然后使用GydF4y2Ba排序GydF4y2Ba,并使用第二个输出重新排序原始序列。GydF4y2Ba

sequenceLengths = cellfun(@(X) size(X,2), XTrain);[sequenceLengthsSorted, idx] = (sequenceLengths)进行排序;XTrain = XTrain (idx);GydF4y2Ba

以下附图示出了条形图中的排序和未分类数据的序列长度。GydF4y2Ba

垫序列GydF4y2Ba

如果指定序列长度GydF4y2Ba“最长”GydF4y2Ba然后,软件填充序列,使迷你批批中的所有序列具有与Mini-Batch中最长序列相同的长度。此选项是默认值。GydF4y2Ba

下图说明了设置的效果GydF4y2Ba“SequenceLength”GydF4y2Ba至GydF4y2Ba“最长”GydF4y2Ba.GydF4y2Ba

截断序列GydF4y2Ba

如果指定序列长度GydF4y2Ba“最短”GydF4y2Ba然后,软件截断序列,使得迷你批处理中的所有序列具有与该批次中的最短序列相同的长度。丢弃序列中的剩余数据。GydF4y2Ba

下图说明了设置的效果GydF4y2Ba“SequenceLength”GydF4y2Ba至GydF4y2Ba“最短”GydF4y2Ba.GydF4y2Ba

分裂序列GydF4y2Ba

如果您将序列长度设置为一个整数值,那么软件将迷你批处理中的所有序列填充为大于迷你批处理中最长序列长度的指定长度的最近倍数。然后,软件将每个序列分割成指定长度的更小的序列。如果发生拆分,软件将创建额外的小批。GydF4y2Ba

如果完整序列不适合内存,请使用此选项。或者,您可以尝试通过设置批量来减少每百分之一的序列数GydF4y2Ba'minibatchsize'GydF4y2Ba选项GydF4y2BatrainingOptionsGydF4y2Ba到一个更低的值。GydF4y2Ba

如果您将序列长度指定为一个正整数,那么软件将在连续迭代中处理较小的序列。网络更新分裂序列之间的网络状态。GydF4y2Ba

下图说明了设置的效果GydF4y2Ba“SequenceLength”GydF4y2Ba到5。GydF4y2Ba

填充指定方向GydF4y2Ba

填充和截断的位置会影响训练、分类和预测的准确性。尝试设置GydF4y2Ba'sequencdpaddingdirection'GydF4y2Ba选项GydF4y2BatrainingOptionsGydF4y2Ba至GydF4y2Ba“左”GydF4y2Ba或GydF4y2Ba“对”GydF4y2Ba并查看哪个最适合您的数据。GydF4y2Ba

因为LSTM层次处理序列数据一次一次步骤,当图层时GydF4y2BaOutputMode.GydF4y2Ba属性是GydF4y2Ba'最后的'GydF4y2Ba,最终时间步骤中的任何填充都可以对图层输出产生负面影响。键入或截断左侧的序列数据,设置GydF4y2Ba'sequencdpaddingdirection'GydF4y2Ba选项GydF4y2Ba“左”GydF4y2Ba.GydF4y2Ba

用于序列到序列网络(当GydF4y2BaOutputMode.GydF4y2Ba属性是GydF4y2Ba'顺序'GydF4y2Ba对于每个LSTM层),在第一次步骤中的任何填充都可以对较早时间步长的预测产生负面影响。键入或截断右侧序列数据,请设置GydF4y2Ba'sequencdpaddingdirection'GydF4y2Ba选项GydF4y2Ba“对”GydF4y2Ba.GydF4y2Ba

下图说明了左侧和右侧的填充序列数据。GydF4y2Ba

下面的图说明了截断序列数据的左边和右边。GydF4y2Ba

标准化序列数据GydF4y2Ba

在使用零中心归一化的训练时间自动训练数据,设置GydF4y2Ba归一化GydF4y2Ba选择GydF4y2BasequenceInputLayerGydF4y2Ba至GydF4y2Ba'Zerocenter'GydF4y2Ba.或者,您可以通过首先计算所有序列的每个特征的平均值和标准偏差来规范化序列数据。然后,对于每个训练观察,减去平均值,除以标准差。GydF4y2Ba

mu =均值([xtrain {:}],2);sigma = std([xtrain {:}],0,2);xtrain = cellfun(@(x)(x-mu)./ sigma,xtrain,GydF4y2Ba“UniformOutput”GydF4y2Ba、假);GydF4y2Ba

存储空间数据GydF4y2Ba

当数据太大而无法装入内存或无法在读取成批数据时执行特定操作时,可以将数据存储用于序列、时间序列和信号数据。GydF4y2Ba

要了解更多信息,请参阅GydF4y2Ba使用内存不足的序列数据训练网络GydF4y2Ba和GydF4y2Ba使用深度学习对内存外文本数据进行分类GydF4y2Ba.GydF4y2Ba

可视化GydF4y2Ba

通过使用该激活来提取激活来调查和可视化LSTM网络从序列和时间序列数据学习的功能GydF4y2Ba激活GydF4y2Ba功能。要了解更多信息,请参阅GydF4y2Ba可视化LSTM网络的激活GydF4y2Ba.GydF4y2Ba

LSTM层架构GydF4y2Ba

这张图说明了时间序列的流程GydF4y2BaXGydF4y2Ba和GydF4y2BaCGydF4y2Ba长度的特征(频道)GydF4y2BaS.GydF4y2Ba通过LSTM层。在图中,GydF4y2Ba HGydF4y2Ba T.GydF4y2Ba 和GydF4y2Ba CGydF4y2Ba T.GydF4y2Ba 表示输出(也称为GydF4y2Ba隐藏状态GydF4y2Ba)和GydF4y2Ba细胞状态GydF4y2Ba在时间步GydF4y2BaT.GydF4y2Ba, 分别。GydF4y2Ba

第一LSTM块使用网络的初始状态和序列的第一次执行第一输出和更新的小区状态。在时间步骤GydF4y2BaT.GydF4y2Ba,该块使用网络的当前状态GydF4y2Ba (GydF4y2Ba CGydF4y2Ba T.GydF4y2Ba −GydF4y2Ba 1GydF4y2Ba 那GydF4y2Ba HGydF4y2Ba T.GydF4y2Ba −GydF4y2Ba 1GydF4y2Ba )GydF4y2Ba 以及序列的下次步骤计算输出和更新的单元格状态GydF4y2Ba CGydF4y2Ba T.GydF4y2Ba .GydF4y2Ba

层的状态由GydF4y2Ba隐藏状态GydF4y2Ba(也称为GydF4y2Ba输出状态GydF4y2Ba)和GydF4y2Ba细胞状态GydF4y2Ba.隐藏的状态在时间步骤GydF4y2BaT.GydF4y2Ba包含此时间步长LSTM层的输出。单元状态包含从前面的时间步中学习到的信息。在每个时间步骤中,该层向单元状态添加信息或从单元状态中删除信息。该层使用GydF4y2Ba盖茨GydF4y2Ba.GydF4y2Ba

以下组件控制单元的小区状态和隐藏状态。GydF4y2Ba

成分GydF4y2Ba 目的GydF4y2Ba
输入门(GydF4y2Ba一世GydF4y2Ba)GydF4y2Ba 单元格状态更新的控制级别GydF4y2Ba
忘记门(GydF4y2BaFGydF4y2Ba)GydF4y2Ba 细胞状态复位(忘记)控制水平GydF4y2Ba
细胞候选人(GydF4y2BaGGydF4y2Ba)GydF4y2Ba 将信息添加到单元格状态GydF4y2Ba
输出门(GydF4y2BaO.GydF4y2Ba)GydF4y2Ba 添加到隐藏状态的单元格状态的控制级别GydF4y2Ba

该图说明了时间步骤中的数据流GydF4y2BaT.GydF4y2Ba.该图突出显示盖茨如何忘记,更新和输出单元格和隐藏状态。GydF4y2Ba

LSTM层的可读权重是输入权重GydF4y2BaW.GydF4y2Ba(GydF4y2Ba输入重量GydF4y2Ba),复发重量GydF4y2BaR.GydF4y2Ba(GydF4y2Ba经常性重量GydF4y2Ba),以及偏见GydF4y2BaB.GydF4y2Ba(GydF4y2Ba偏见GydF4y2Ba)。矩阵GydF4y2BaW.GydF4y2Ba那GydF4y2BaR.GydF4y2Ba,GydF4y2BaB.GydF4y2Ba输入权重,复发重量和每个组分的偏置的级联。这些矩阵如下所连接:GydF4y2Ba

W.GydF4y2Ba =GydF4y2Ba [GydF4y2Ba W.GydF4y2Ba 一世GydF4y2Ba W.GydF4y2Ba FGydF4y2Ba W.GydF4y2Ba GGydF4y2Ba W.GydF4y2Ba O.GydF4y2Ba ]GydF4y2Ba 那GydF4y2Ba R.GydF4y2Ba =GydF4y2Ba [GydF4y2Ba R.GydF4y2Ba 一世GydF4y2Ba R.GydF4y2Ba FGydF4y2Ba R.GydF4y2Ba GGydF4y2Ba R.GydF4y2Ba O.GydF4y2Ba ]GydF4y2Ba 那GydF4y2Ba B.GydF4y2Ba =GydF4y2Ba [GydF4y2Ba B.GydF4y2Ba 一世GydF4y2Ba B.GydF4y2Ba FGydF4y2Ba B.GydF4y2Ba GGydF4y2Ba B.GydF4y2Ba O.GydF4y2Ba ]GydF4y2Ba 那GydF4y2Ba

在哪里GydF4y2Ba一世GydF4y2Ba那GydF4y2BaFGydF4y2Ba那GydF4y2BaGGydF4y2Ba,GydF4y2BaO.GydF4y2Ba表示输入门,忘记门,单元候选和输出门。GydF4y2Ba

细胞在时间步长的状态GydF4y2BaT.GydF4y2Ba是(谁)给的GydF4y2Ba

CGydF4y2Ba T.GydF4y2Ba =GydF4y2Ba FGydF4y2Ba T.GydF4y2Ba ⊙GydF4y2Ba CGydF4y2Ba T.GydF4y2Ba −GydF4y2Ba 1GydF4y2Ba +GydF4y2Ba 一世GydF4y2Ba T.GydF4y2Ba ⊙GydF4y2Ba GGydF4y2Ba T.GydF4y2Ba 那GydF4y2Ba

在哪里GydF4y2Ba ⊙GydF4y2Ba 表示Hadamard乘积(向量的元素级乘法)。GydF4y2Ba

隐藏的状态在时间步骤GydF4y2BaT.GydF4y2Ba是(谁)给的GydF4y2Ba

HGydF4y2Ba T.GydF4y2Ba =GydF4y2Ba O.GydF4y2Ba T.GydF4y2Ba ⊙GydF4y2Ba σGydF4y2Ba CGydF4y2Ba (GydF4y2Ba CGydF4y2Ba T.GydF4y2Ba )GydF4y2Ba 那GydF4y2Ba

在哪里GydF4y2Ba σGydF4y2Ba CGydF4y2Ba 表示状态激活功能。这GydF4y2BalstmLayerGydF4y2Ba默认情况下,函数使用双曲线切线函数(TanH)来计算状态激活功能。GydF4y2Ba

下面的公式描述了时间步的分量GydF4y2BaT.GydF4y2Ba.GydF4y2Ba

成分GydF4y2Ba 公式GydF4y2Ba
输入门GydF4y2Ba 一世GydF4y2Ba T.GydF4y2Ba =GydF4y2Ba σGydF4y2Ba GGydF4y2Ba (GydF4y2Ba W.GydF4y2Ba 一世GydF4y2Ba XGydF4y2Ba T.GydF4y2Ba +GydF4y2Ba R.GydF4y2Ba 一世GydF4y2Ba HGydF4y2Ba T.GydF4y2Ba −GydF4y2Ba 1GydF4y2Ba +GydF4y2Ba B.GydF4y2Ba 一世GydF4y2Ba )GydF4y2Ba
忘记门GydF4y2Ba FGydF4y2Ba T.GydF4y2Ba =GydF4y2Ba σGydF4y2Ba GGydF4y2Ba (GydF4y2Ba W.GydF4y2Ba FGydF4y2Ba XGydF4y2Ba T.GydF4y2Ba +GydF4y2Ba R.GydF4y2Ba FGydF4y2Ba HGydF4y2Ba T.GydF4y2Ba −GydF4y2Ba 1GydF4y2Ba +GydF4y2Ba B.GydF4y2Ba FGydF4y2Ba )GydF4y2Ba
细胞的候选人GydF4y2Ba GGydF4y2Ba T.GydF4y2Ba =GydF4y2Ba σGydF4y2Ba CGydF4y2Ba (GydF4y2Ba W.GydF4y2Ba GGydF4y2Ba XGydF4y2Ba T.GydF4y2Ba +GydF4y2Ba R.GydF4y2Ba GGydF4y2Ba HGydF4y2Ba T.GydF4y2Ba −GydF4y2Ba 1GydF4y2Ba +GydF4y2Ba B.GydF4y2Ba GGydF4y2Ba )GydF4y2Ba
输出门GydF4y2Ba O.GydF4y2Ba T.GydF4y2Ba =GydF4y2Ba σGydF4y2Ba GGydF4y2Ba (GydF4y2Ba W.GydF4y2Ba O.GydF4y2Ba XGydF4y2Ba T.GydF4y2Ba +GydF4y2Ba R.GydF4y2Ba O.GydF4y2Ba HGydF4y2Ba T.GydF4y2Ba −GydF4y2Ba 1GydF4y2Ba +GydF4y2Ba B.GydF4y2Ba O.GydF4y2Ba )GydF4y2Ba

在这些计算中,GydF4y2Ba σGydF4y2Ba GGydF4y2Ba 表示栅极激活功能。这GydF4y2BalstmLayerGydF4y2Ba默认情况下,函数使用Sigmoid函数给出GydF4y2Ba σGydF4y2Ba (GydF4y2Ba XGydF4y2Ba )GydF4y2Ba =GydF4y2Ba (GydF4y2Ba 1GydF4y2Ba +GydF4y2Ba E.GydF4y2Ba −GydF4y2Ba XGydF4y2Ba )GydF4y2Ba −GydF4y2Ba 1GydF4y2Ba 计算门激活函数。GydF4y2Ba

参考文献GydF4y2Ba

[1] Hochreiter,S.和J. Schmidhuber。“长期记忆。”GydF4y2Ba神经计算GydF4y2Ba.卷。9,第8,199,997页,PP.1735-1780。GydF4y2Ba

也可以看看GydF4y2Ba

|GydF4y2Ba|GydF4y2Ba|GydF4y2Ba|GydF4y2Ba|GydF4y2Ba|GydF4y2Ba|GydF4y2Ba|GydF4y2Ba|GydF4y2Ba|GydF4y2Ba|GydF4y2Ba(文本分析工具箱)GydF4y2Ba

相关的话题GydF4y2Ba