这个例子展示了如何使用长期短期记忆(LSTM)网络分类序列数据。
要训练深度神经网络对序列数据进行分类,可以使用LSTM网络。LSTM网络可以将序列数据输入到网络中,并根据序列数据的各个时间步长进行预测。
此示例使用如[1]和[2]中所述的日语元音数据集。该示例列举了LSTM网络,以识别给定的时间序列数据代表连续使用的两个日本元音。培训数据包含九个扬声器的时间序列数据。每个序列具有12个特征,长度变化。数据集包含270个培训观察和370个测试观察。
加载日语元音培训数据。XTrain
是包含不同长度的270个尺寸12的细胞阵列。Y
是标签"1","2",…,“9”,对应9个扬声器。的条目XTrain
是具有12行的矩阵(每个特征的一行)和不同数量的列(每次步骤一列)。
[Xtrain,Ytrain] = JapanesevowelstrainData;XTrain(1:5)
ans =.5×1个单元阵列{12x20双}{12x26双}{12x22双}{12x20双}{12x21双}
在绘图中可视化第一次序列。每行对应于特征。
图绘图(XTrain {1}')XLabel(“时间步”) 标题(“培训观察1”)numfeatures = size(xtrain {1},1);传奇(“特征 ”+字符串(1:numFeatures),'地点',“northeastoutside”)
在训练过程中,软件默认将训练数据分割成小批,并填充序列,使其具有相同的长度。过多的填充会对网络性能产生负面影响。
为了防止训练过程中增加过多的填充,可以根据序列长度对训练数据进行排序,并选择一个小批处理的大小,使小批处理中的序列具有相似的长度。数据排序前后填充序列的效果如下图所示。
获取每个观察的序列长度。
numObservations =元素个数(XTrain);为i = 1:numobservations sequence = xtrain {i};Sequencelengths(i)=大小(序列,2);结束
按序列长度对数据进行排序。
[sequenceLengths, idx] = (sequenceLengths)进行排序;XTrain = XTrain (idx);YTrain = YTrain (idx);
在条形图中查看排序的序列长度。
图栏(Sequencelength)Ylim([030])XLabel(“序列”)ylabel(“长度”) 标题(“排序数据”)
选择27个小批量,均匀分割训练数据,减少小批量中的填充量。下图说明了添加到序列中的填充。
miniBatchSize = 27个;
定义LSTM网络架构。将输入大小指定为尺寸12的序列(输入数据的尺寸)。指定具有100个隐藏单元的双向LSTM层,并输出序列的最后一个元素。最后,通过包括一个完全连接的大小9层来指定九类,然后是Softmax层和分类层。
如果您可以在预测时间访问完整序列,则可以在网络中使用双向LSTM层。双向LSTM层在每次步骤中从完整序列学习。例如,如果您没有访问预测时间的完整序列,例如,如果您是预测值或一次预测一次,则使用LSTM层。
inputSize = 12;numHiddenUnits = 100;numClasses = 9;层= [...sequenceInputLayer inputSize bilstmLayer (numHiddenUnits,“OutputMode”,“最后一次”) fullconnectedlayer (numClasses) softmaxLayer classiationlayer]
Layer = 5x1 Layer array with layers: 1 " Sequence Input Sequence Input with 12 dimensions 2 " BiLSTM BiLSTM with 100 hidden units 3 " Fully Connected 9 full Connected Layer 4 " Softmax Softmax 5 " Classification Output cross - sentropyex . 1 " Sequence Input Sequence Input with 12 dimensions 2 " BiLSTM BiLSTM with 100 hidden units
现在,指定培训选项。指定要的求解器“亚当”
,梯度阈值为1,最大epoch数为100。为了减少小批中的填充量,选择小批大小为27。若要填充数据使其与最长序列具有相同的长度,请指定序列长度为'最长'
.为确保数据保持按顺序长度保持排序,请指定永远不会破坏数据。
由于小批次小,序列短,训练更适合于CPU。指定“ExecutionEnvironment”
是“cpu”
.在GPU上训练,如果有的话,设置“ExecutionEnvironment”
来“汽车”
(这是默认值)。
maxEpochs = 100;miniBatchSize = 27个;选择= trainingOptions (“亚当”,...“ExecutionEnvironment”,“cpu”,...'gradientthreshold',1,...“MaxEpochs”maxEpochs,...“MiniBatchSize”,小匹马,...'sequencelength','最长',...“洗牌”,“永远”,...'verbose',0,...“阴谋”,“训练进步”);
使用指定的训练选项对LSTM网络进行训练Trainnetwork.
.
net = trainnetwork(xtrain,ytrain,图层,选项);
加载测试集并将序列分类到扬声器中。
加载日语元音测试数据。XTest.
是一个包含370个不同长度、维数为12的序列的单元数组。ytest.
是标签"1","2",…“9”对应9个扬声器。
[xtest,ytest] =日本韦沃尔斯特迪塔XTEST(1:3)
ans =.3×1单元阵列{12x19 double} {12x17 double} {12x19 double}
LSTM网络网
使用相似长度的小批序列进行训练。确保测试数据以相同的方式组织。根据序列长度对测试数据进行排序。
numobservationstest = numel(xtest);为i = 1:numobservationstest序列= xtest {i};SequenceLengdentStest(i)=大小(序列,2);结束[SequenceLengdentStest,IDX] =排序(SequenceLengdentStest);xtest = xtest(idx);ytest = ytest(idx);
分类测试数据。为减少分类过程引入的填充量,将迷你批量大小设置为27.要将与训练数据相同的填充,请指定序列长度'最长'
.
miniBatchSize = 27个;ypred =分类(net,xtest,...“MiniBatchSize”,小匹马,...'sequencelength','最长');
计算预测结果的分类准确率。
ACC = SUM(YPRED == ytest)./ numel(ytest)
ACC = 0.9730.
[1] M. Kudo,J. Toyama和M. Shimbo。“使用过度区域的多维曲线分类。”模式识别的字母.卷。20,第11-13页,第1103-1111页。
[2]UCI机器学习存储库:日语元音数据集.https://archive.ics.uci.edu/ml/datasets/Japanese+Vowels
Bilstmlayer.
|lstmlayer.
|sequenceInputLayer
|Trainnetwork.
|培训选项