利用深度学习进行序列分类

这个例子展示了如何使用长期短期记忆(LSTM)网络分类序列数据。

要训练深度神经网络对序列数据进行分类,可以使用LSTM网络。LSTM网络可以将序列数据输入到网络中,并根据序列数据的各个时间步长进行预测。

此示例使用如[1]和[2]中所述的日语元音数据集。该示例列举了LSTM网络,以识别给定的时间序列数据代表连续使用的两个日本元音。培训数据包含九个扬声器的时间序列数据。每个序列具有12个特征,长度变化。数据集包含270个培训观察和370个测试观察。

加载序列数据

加载日语元音培训数据。XTrain是包含不同长度的270个尺寸12的细胞阵列。Y是标签"1","2",…,“9”,对应9个扬声器。的条目XTrain是具有12行的矩阵(每个特征的一行)和不同数量的列(每次步骤一列)。

[Xtrain,Ytrain] = JapanesevowelstrainData;XTrain(1:5)
ans =.5×1个单元阵列{12x20双}{12x26双}{12x22双}{12x20双}{12x21双}

在绘图中可视化第一次序列。每行对应于特征。

图绘图(XTrain {1}')XLabel(“时间步”) 标题(“培训观察1”)numfeatures = size(xtrain {1},1);传奇(“特征 ”+字符串(1:numFeatures),'地点'“northeastoutside”

准备填充数据

在训练过程中,软件默认将训练数据分割成小批,并填充序列,使其具有相同的长度。过多的填充会对网络性能产生负面影响。

为了防止训练过程中增加过多的填充,可以根据序列长度对训练数据进行排序,并选择一个小批处理的大小,使小批处理中的序列具有相似的长度。数据排序前后填充序列的效果如下图所示。

获取每个观察的序列长度。

numObservations =元素个数(XTrain);i = 1:numobservations sequence = xtrain {i};Sequencelengths(i)=大小(序列,2);结束

按序列长度对数据进行排序。

[sequenceLengths, idx] = (sequenceLengths)进行排序;XTrain = XTrain (idx);YTrain = YTrain (idx);

在条形图中查看排序的序列长度。

图栏(Sequencelength)Ylim([030])XLabel(“序列”)ylabel(“长度”) 标题(“排序数据”

选择27个小批量,均匀分割训练数据,减少小批量中的填充量。下图说明了添加到序列中的填充。

miniBatchSize = 27个;

定义LSTM网络架构

定义LSTM网络架构。将输入大小指定为尺寸12的序列(输入数据的尺寸)。指定具有100个隐藏单元的双向LSTM层,并输出序列的最后一个元素。最后,通过包括一个完全连接的大小9层来指定九类,然后是Softmax层和分类层。

如果您可以在预测时间访问完整序列,则可以在网络中使用双向LSTM层。双向LSTM层在每次步骤中从完整序列学习。例如,如果您没有访问预测时间的完整序列,例如,如果您是预测值或一次预测一次,则使用LSTM层。

inputSize = 12;numHiddenUnits = 100;numClasses = 9;层= [...sequenceInputLayer inputSize bilstmLayer (numHiddenUnits,“OutputMode”“最后一次”) fullconnectedlayer (numClasses) softmaxLayer classiationlayer]
Layer = 5x1 Layer array with layers: 1 " Sequence Input Sequence Input with 12 dimensions 2 " BiLSTM BiLSTM with 100 hidden units 3 " Fully Connected 9 full Connected Layer 4 " Softmax Softmax 5 " Classification Output cross - sentropyex . 1 " Sequence Input Sequence Input with 12 dimensions 2 " BiLSTM BiLSTM with 100 hidden units

现在,指定培训选项。指定要的求解器“亚当”,梯度阈值为1,最大epoch数为100。为了减少小批中的填充量,选择小批大小为27。若要填充数据使其与最长序列具有相同的长度,请指定序列长度为'最长'.为确保数据保持按顺序长度保持排序,请指定永远不会破坏数据。

由于小批次小,序列短,训练更适合于CPU。指定“ExecutionEnvironment”“cpu”.在GPU上训练,如果有的话,设置“ExecutionEnvironment”“汽车”(这是默认值)。

maxEpochs = 100;miniBatchSize = 27个;选择= trainingOptions (“亚当”...“ExecutionEnvironment”“cpu”...'gradientthreshold',1,...“MaxEpochs”maxEpochs,...“MiniBatchSize”,小匹马,...'sequencelength''最长'...“洗牌”“永远”...'verbose',0,...“阴谋”“训练进步”);

火车LSTM网络

使用指定的训练选项对LSTM网络进行训练Trainnetwork.

net = trainnetwork(xtrain,ytrain,图层,选项);

测试LSTM网络

加载测试集并将序列分类到扬声器中。

加载日语元音测试数据。XTest.是一个包含370个不同长度、维数为12的序列的单元数组。ytest.是标签"1","2",…“9”对应9个扬声器。

[xtest,ytest] =日本韦沃尔斯特迪塔XTEST(1:3)
ans =.3×1单元阵列{12x19 double} {12x17 double} {12x19 double}

LSTM网络使用相似长度的小批序列进行训练。确保测试数据以相同的方式组织。根据序列长度对测试数据进行排序。

numobservationstest = numel(xtest);i = 1:numobservationstest序列= xtest {i};SequenceLengdentStest(i)=大小(序列,2);结束[SequenceLengdentStest,IDX] =排序(SequenceLengdentStest);xtest = xtest(idx);ytest = ytest(idx);

分类测试数据。为减少分类过程引入的填充量,将迷你批量大小设置为27.要将与训练数据相同的填充,请指定序列长度'最长'

miniBatchSize = 27个;ypred =分类(net,xtest,...“MiniBatchSize”,小匹马,...'sequencelength''最长');

计算预测结果的分类准确率。

ACC = SUM(YPRED == ytest)./ numel(ytest)
ACC = 0.9730.

参考

[1] M. Kudo,J. Toyama和M. Shimbo。“使用过度区域的多维曲线分类。”模式识别的字母.卷。20,第11-13页,第1103-1111页。

[2]UCI机器学习存储库:日语元音数据集.https://archive.ics.uci.edu/ml/datasets/Japanese+Vowels

另请参阅

||||

相关话题