主要内容

基于深度学习的化工过程故障检测

这个例子展示了如何使用模拟数据训练神经网络,可以检测故障的化学过程。网络在模拟过程中检测故障,具有较高的准确性。典型工作流程如下:

  1. 预处理的数据

  2. 设计层架构

  3. 培训网络

  4. 执行验证

  5. 测试网络

下载数据集

本例使用MathWorks®从Tennessee Eastman Process (TEP)模拟数据转换的matlab格式文件[1].这些文件可以在MathWorks支持文件站点上找到。金宝app看到免责声明

该数据集由四部分组成:无故障训练、无故障测试、有故障训练和有故障测试。分别下载每个文件。

URL =.“//www.tatmou.com/金宝appsupportfiles/predmaint/chemical-process-fault-detection-data/faultytesting.mat”;WebSave(“faultytesting.mat”,URL);URL =.“//www.tatmou.com/金宝appsupportfiles/predmaint/chemical-process-fault-detection-data/faultytraining.mat”;WebSave('故障训练.Mat',URL);URL =.“//www.tatmou.com/金宝appsupportfiles/predmaint/chemical-process-fault-detection-data/faultfreetesting.mat”;WebSave('afficefreeesting.mat',URL);URL =.'//www.tatmou.com/金宝appsupportfiles/predmaint/chemical-process-fault-detection-data/faultfreetraining.mat';WebSave(“faultfreetraining.mat”,URL);

加载下载的文件到MATLAB®工作空间。

加载('afficefreeesting.mat');加载(“faultfreetraining.mat”);加载(“faultytesting.mat”);加载('故障训练.Mat');

每个组件包含两个参数的每一个排列所运行的模拟数据:

  • 故障编号 - 对于故障数据集,从1到20的整数值表示不同的模拟故障。对于无故障数据集,值为0。

  • 模拟运行—对于所有数据集,从1到500的整数值,其中每个值代表模拟的唯一随机生成器状态。

每个模拟的长度取决于数据集。所有模拟都是每三分钟采样一次。

  • 训练数据集包含来自25小时模拟的500个时间样本。

  • 测试数据集包含来自48小时模拟的960个时间样本。

每个数据帧在其列中有以下变量:

  • 第1列(faultNumber)表示故障类型,取值范围为0 ~ 20。故障号0表示故障正常,故障号1 ~ 20表示TEP中不同的故障类型。

  • 列2 (simulationRun)表示TEP仿真ran获取完整数据的次数。在培训和测试数据集中,所有故障编号的运行数量为1到500。每一个simulationRun值表示模拟的不同随机生成器状态。

  • 列3 (样本)表示每仿真记录Tep变量的次数。对于训练数据集的数量从1到500变化为1到500,用于测试数据集。Tep变量(第4至55列)每3分钟对持续时间为25小时,48小时分别进行训练和测试数据集。

  • 列4-44 (xmeas_1通过xmeas_41)包含TEP的测量变量。

  • 45 - 55(列xmv_1通过XMV_11)包含TEP的操作变量。

检查两个文件的子部分。

头(过滤,4)
ans =表4×55faultNumber simulationRun样品xmeas_1 xmeas_2 xmeas_3 xmeas_4 xmeas_5 xmeas_6 xmeas_7 xmeas_8 xmeas_9 xmeas_10 xmeas_11 xmeas_12 xmeas_13 xmeas_14 xmeas_15 xmeas_16 xmeas_17 xmeas_18 xmeas_19 xmeas_20 xmeas_21 xmeas_22 xmeas_23 xmeas_24 xmeas_25 xmeas_26 xmeas_27 xmeas_28 xmeas_29 xmeas_30 xmeas_31 xmeas_32 xmeas_33 xmeas_34 xmeas_35 xmeas_36 xmeas_37 xmeas_38 xmeas_39 xmeas_40 xmeas_41 xmv_1 xmv_2 xmv_3 xmv_4 xmv_5 xmv_6xmv_7 xmv_8 xmv_9 xmv_10 xmv_11 ___________ _____________ ______ _______ _______ _______ _______ _______ _______ _______ _______ _______ ________ ________ ________ ________ ________ ________ ________ ________ ________ ________ ________ ________ ________ ________ ________ ________ ________ ________ ________ ________ ________ ________ ________ ________ ________ ________ ________ ________ ________ ________ ________ ________ ____________ ______ ______ ______ ______ ______ _____________ ______ ______ 0 1 0:25038 3674 4529 9.232 26.889 42.402 2704.3 74.863 120.41 0.33818 80.044 51.435 2632.9 25.029 50.528 3101.1 22.819 65.732 229.61 341.22 94.64 77.047 32.188 8.8933 26.383 6.882 18.776 1.6567 32.958 13.823 23.978 1.2565 18.579 2.2633 4.8436 2.2986 0.017866 0.8357 0.098577 53.724 43.828 62.881 53.744 24.657 62.544 22.137 39.935 42.323 47.757 47.51 41.258 18.447 0 1 2 0.25109 3659.4 4556.6 9.426426.721 42.576 2705 75 120.41 0.3362 80.078 50.154 2633.8 24.419 48.772 3102 23.333 65.716 230.54 341.3 94.595 77.434 32.188 8.8933 26.383 6.882 18.776 1.6567 32.958 13.823 23.978 1.2565 18.579 2.2633 4.8436 2.2986 0.017866 0.8357 0.098577 53.724 43.828 63.132 53.414 24.588 59.259 22.084 40.176 38.554 43.692 47.427 41.359 17.194 0 13 0.25038 3660.3 4477.8 9.4426 26.875 42.07 2706.2 74.771 120.42 0.33563 80.22 50.302 2635.5 25.244 50.071 3103.5 21.924 65.732 230.08 341.38 94.605 77.466 31.767 8.7694 26.095 6.8259 18.961 1.6292 32.985 13.742 23.897 1.3001 18.765 2.2602 4.8543 2.39 0.017866 0.8357 0.098577 53.724 43.828 63.117 54.357 24.666 61.275 22.38 40.24438.99 46.699 47.468 41.199 20.53 0 1 4 0.24977 3661.3 4512.1 9.4776 26.758 42.063 2707.2 75.224 120.39 0.33553 80.305 49.99 2635.6 23.268 50.435 3102.8 22.948 65.781 227.91 341.71 94.473 77.443 31.767 8.7694 26.095 6.8259 18.961 1.6292 32.985 13.742 23.897 1.3001 18.765 2.2602 4.8543 2.39 0.017866 0.8357 0.098577 53.724 43.828 63.153.946 24.725 59.856 22.277 40.257 38.072 47.541 47.658 41.643 18.089
头(faultytraining, 4)
ans =表4×55faultNumber simulationRun样品xmeas_1 xmeas_2 xmeas_3 xmeas_4 xmeas_5 xmeas_6 xmeas_7 xmeas_8 xmeas_9 xmeas_10 xmeas_11 xmeas_12 xmeas_13 xmeas_14 xmeas_15 xmeas_16 xmeas_17 xmeas_18 xmeas_19 xmeas_20 xmeas_21 xmeas_22 xmeas_23 xmeas_24 xmeas_25 xmeas_26 xmeas_27 xmeas_28 xmeas_29 xmeas_30 xmeas_31 xmeas_32 xmeas_33 xmeas_34 xmeas_35 xmeas_36 xmeas_37 xmeas_38 xmeas_39 xmeas_40 xmeas_41 xmv_1 xmv_2 xmv_3 xmv_4 xmv_5 xmv_6xmv_7 xmv_8 xmv_9 xmv_10 xmv_11 ___________ _____________ ______ _______ _______ _______ _______ _______ _______ _______ _______ _______ ________ ________ ________ ________ ________ ________ ________ ________ ________ ________ ________ ________ ________ ________ ________ ________ ________ ________ ________ ________ ________ ________ ________ ________ ________ ________ ________ ________ ________ ________ ________ ________ ____________ ______ ______ ______ ______ ______ ______ ______ ______ ______ 1 1 1 0.25038 3674 4529 9.232 26.889 42.402 2704.3 74.863 120.41 0.33818 80.044 51.435 2632.9 25.029 50.528 3101.1 22.819 65.732 229.61 341.22 94.64 77.047 32.188 8.8933 26.383 6.882 18.776 1.6567 32.958 13.823 23.978 1.2565 18.579 2.2633 4.8436 2.2986 0.017866 0.8357 0.098577 53.724 43.828 62.881 53.744 24.657 62.544 22.137 39.935 42.323 47.757 47.51 41.258 18.447 1 1 2 0.25109 3659.4 4556.6 9.4264 26.721 42.576 2705 75 120.41 0.3362 80.078 50.154 2633.8 24.419 48.772 3102 23.333 65.716 230.54 341.3 94.595 77.434 32.188 8.8933 26.383 6.882 18.776 1.6567 32.958 13.823 23.978 1.2565 18.579 2.2633 4.8436 2.2986 0.017866 0.8357 0.098577 53.724 43.828 63.132 53.414 24.588 59.259 22.084 40.176 38.554 43.692 47.427 41.359 17.194 1 1 3 0.25038 3660.3 4477.8 9.4426 26.875 42.07 2706.2 74.771 120.42 0.33563 80.22 50.302 2635.5 25.244 50.071 3103.5 21.924 65.732 230.08 341.38 94.605 77.466 31.767 8.7694 26.095 6.8259 18.961 1.6292 32.985 13.742 23.897 1.3001 18.765 2.2602 4.8543 2.39 0.017866 0.8357 0.098577 53.724 43.828 63.117 54.357 24.666 61.275 22.38 40.244 38.99 46.699 47.468 41.199 20.53 1 1 4 0.24977 3661.3 4512.1 9.4776 26.758 42.063 2707.2 75.224 120.39 0.33553 80.305 49.99 2635.6 23.268 50.435 3102.8 22.948 65.781 227.91 341.71 94.473 77.443 31.767 8.7694 26.095 6.8259 18.961 1.6292 32.985 13.742 23.897 1.3001 18.765 2.2602 4.8543 2.39 0.017866 0.8357 0.098577 53.724 43.828 63.1 53.946 24.725 59.856 22.277 40.257 38.072 47.541 47.658 41.643 18.089

干净的数据

在训练和测试数据集中删除故障编号为3、9和15的数据项。这些故障数无法识别,相关的模拟结果是错误的。

故障(故障,故障.FaultNumber == 3,:) = [];故障(故障,错误.FaultNumber == 9,:) = [];故障(故障,故障.FaultNumber == 15,:) = [];致命训练(故障训练.FaultNumber == 3,:) = [];致命训练(故障训练.FaultNumber == 9,:) = [];致命训练(故障训练.FaultNumber == 15,:) = [];

把数据

通过保留20%的训练数据进行验证,将训练数据划分为训练数据和验证数据。使用验证数据集可以在优化模型超参数时评估训练数据集上的模型拟合程度。数据分割是防止网络过拟合和欠拟合的常用方法。

得到故障和无故障训练数据集的总行数。

H1 =身高(faultfreetraining);H2 =身高(faultytraining);

模拟运行是重复使用特定故障类型的TEP过程的次数。从训练数据集和测试数据集获得最大的模拟运行。

msTrain = max (faultfreetraining.simulationRun);msTest = max (faultytesting.simulationRun);

计算验证数据的最大模拟运行。

rTrain = 0.80;msVal = ceil(msTrain*(1 - rTrain));msTrain = msTrain * rTrain;

获取最大样本数或时间步长(即在TEP模拟期间记录数据的最大次数)。

sampleTrain = max (faultfreetraining.sample);sampleTest = max (faultfreetesting.sample);

在无故障和有故障的训练数据集中获得分割点(行号),以从训练数据集中创建验证数据集。

rowLim1 =装天花板(rTrain * H1);rowLim2 =装天花板(rTrain * H2);trainingData = [faultfreetraining {1: rowLim1,:};faultytraining {1: rowLim2,:}];validationData = [faultfreetraining{rowLim1 + 1:end,:};faultytraining {rowLim2 + 1:,:}];testingData = [faultfreetesting {:,:};faultytesting {,,}):;

网络设计与预处理

最终数据集(由培训,验证和测试数据组成)包含具有500个均匀时间步长的52个信号。因此,信号或序列需要被分类为其正确的故障编号,这使得它是序列分类的问题。

  • 长短期内存(LSTM)网络适用于序列数据的分类。

  • LSTM网络对于时间序列数据很好,因为它们倾向于记住过去信号的唯一性,以便对新信号进行分类

  • LSTM网络可以将序列数据输入到网络中,并根据序列数据的各个时间步长进行预测。有关LSTM网络的更多信息,请参见长短时记忆网络

  • 训练网络对序列进行分类trainNetwork函数时,必须先对数据进行预处理。数据必须在单元阵列中,其中单元阵列的每个元素是一个矩阵,在单个模拟中代表一组52个信号。单元阵列中的每个矩阵都是TEP的特定模拟信号集,可以是有故障的,也可以是无故障的。每组信号指向从0到20的特定故障类别。

正如前面在数据集部分中所描述的,数据包含52个变量,这些变量的值在模拟的一定时间内被记录。的样本Variable表示在一次模拟运行中记录这52个变量的次数。的最大值样本变量在训练数据集中为500,在测试数据集中为960。因此,对于每个模拟,有一组长度为500或960的52个信号。每组信号都属于TEP的特定模拟运行,并指向0 - 20范围内的特定故障类型。

训练和测试数据集都包含对每种故障类型的500个模拟。保留20%(来自训练的)用于验证,这使得训练数据集对每种故障类型有400个模拟,而验证数据对每种故障类型有100个模拟。使用助手函数helperPreprocess来创建信号集,其中每个集合是单元阵列中单个元素中的双矩阵,该单元阵列表示单个TEP模拟。因此,最终的训练、验证和测试数据集的大小如下:

  • 的大小Xtrain:(模拟总数)X(故障类型总数)= 400 X 18 = 7200

  • 的大小XVal:(模拟总数)X(故障类型总数)= 100 X 18 = 1800

  • 的大小Xtest:(模拟总数)X(故障类型总数)= 500 X 18 = 9000

在数据集中,前500个模拟是0.故障类型(无故障)和后续故障模拟的顺序是已知的。这些知识可以为培训、验证和测试数据集创建真实的响应。

Xtrain = helperPreprocess (trainingData sampleTrain);Ytrain =分类([0 (msTrain 1); repmat([1、2、4:8,14,十六20],1,msTrain) ');XVal = helperPreprocess (validationData sampleTrain);YVal =分类([0 (msVal 1); repmat([1、2、4:8,14,十六20],1,msVal) ');Xtest = helperPreprocess (testingData sampleTest);欧美=分类([0 (msTest 1); repmat([1、2、4:8,14,十六20],1,msTest) ');

标准化数据集

规范化是一种将数据集中的数值缩放到公共尺度而不会扭曲值范围内的差异的技术这种方法确保了一个具有较大值的变量不会在训练中支配其他变量。它还可以将较高范围的数值转换为较小范围(通常为-1到1),而不会丢失训练所需的任何重要信息。

使用来自训练数据集中所有模拟的数据计算52个信号的平均值和标准差。

tMean =意味着(trainingData(:, 4:结束))';tSigma =性病(trainingData(:, 4:结束))';

使用助手函数helperNormalize根据训练数据的均值和标准差对三个数据集中的每个单元格进行归一化处理。

Xtrain = helperNormalize(Xtrain, tMean, tSigma);XVal = helperNormalize(XVal, tMean, tSigma);Xtest = helperNormalize(Xtest, tMean, tSigma);

可视化数据

Xtrain数据集包含400个无故障模拟和6800个故障模拟。可视化故障数据和故障数据。首先,创建无错误数据的图。为实现本示例的目的,只绘制和标记Xtrain数据集创建一个易于阅读的数字。

图;脾= 10;绘图(Xtrain {1}(1:10,:)');Xlabel(“时间步”);标题(“非故障数据的训练观察”);传奇(“信号”+字符串(1:splot),“位置”“northeastoutside”);

现在,通过绘制400之后的任何单元阵列元素来比较无故障图和错误图。

图;情节(Xtrain {1000} (1:10:) ');Xlabel(“时间步”);标题(“故障数据的训练观察”);传奇(“信号”+字符串(1:splot),“位置”“northeastoutside”);

层架构和培训选项

LSTM层是序列分类的好选择,因为LSTM层倾向于只记住输入序列的重要方面。

  • 指定输入层sequenceInputlayer.与输入信号的数目(52)相同大小。

  • 使用52,40和25个单位指定3个LSTM隐藏图层。本规范由实验的启发是在进行中进行的[2].有关使用LSTM网络进行序列分类的更多信息,请参见使用深度学习序列分类

  • 在LSTM层之间添加3个dropout层,防止过拟合。dropout layer随机将下一层的输入元素以给定的概率设为零,这样网络就不会对该层中的一小部分神经元敏感

  • 最后,为了分类,包含一个与输出类数量(18)相同大小的全连接层。在该全连接层之后,还包括一个softmax层,该层为多类问题中的每个类分配十进制概率(预测可能性),以及一个分类层,该分类层基于该softmax层的输出输出最终的故障类型。

numsignals = 52;numhidendunits2 = 52;numhidendunits3 = 40;numhidendunits4 = 25;numclasses = 18;层= [...sequenceInputLayer numSignals lstmLayer (numHiddenUnits2,“OutputMode”“序列”) dropoutLayer (0.2) lstmLayer (numHiddenUnits3“OutputMode”“序列”)DropoutLayer(0.2)LSTMLAYER(NumHiddenUnits4,“OutputMode”'最后的') dropoutLayer(0.2) fullconnectedlayer (numClasses) softmaxLayer classiationlayer];

设置培训选项trainNetwork用途。

名称-值对保持默认值“ExecutionEnvironment”作为“汽车”.通过此设置,软件自动选择执行环境。默认情况下,trainNetwork如果GPU可用,则使用GPU,否则使用CPU。GPU培训需要并行计算工具箱™和支持的GPU设备。金宝app有关支持的设备的信息,请参见金宝appGPU支金宝app持版本(并行计算工具箱).因为此示例使用大量数据,所以使用GPU速度显着加速训练时间。

设置名称-值参数对“洗牌”“every-epoch”避免在每个时代都丢弃相同的数据。

有关深度学习的培训选项的更多信息,请参见trainingOptions

maxEpochs = 30;miniBatchSize = 50;选择= trainingOptions (“亚当”...“ExecutionEnvironment”“汽车”...“GradientThreshold”,1,...'maxepochs',maxepochs,...“MiniBatchSize”miniBatchSize,...“洗牌”“every-epoch”...“详细”0,...'plots'“训练进步”...“ValidationData”, {XVal, YVal});

列车网络的

使用LSTM网络进行训练trainNetwork

网= trainNetwork (Xtrain、Ytrain层,选择);

训练进度图显示了网络的精确度。在图右侧可查看训练时间和设置信息。

测试网络

在测试集上运行培训的网络并预测信号中的故障类型。

Xtest Ypred =分类(净,...“MiniBatchSize”miniBatchSize,...“ExecutionEnvironment”“汽车”);

计算的准确性。准确度是测试数据中与分类相匹配的真标签的数量分类除以测试数据中图像的数量。

acc = sum(Ypred == Ytest)./numel(Ypred)
acc = 0.9992

该神经网络具有较高的准确率,能够以最小的误差成功地识别不可见信号的故障类型。因此,精度越高,网络越好。

使用测试信号的真类标签绘制混淆矩阵,以确定网络识别每个故障的程度。

confusionchart(欧美,Ypred);

使用混淆矩阵,你可以评估一个分类网络的有效性。混淆矩阵在主对角线上有数值,而在其他地方为零。本例中训练的网络是有效的,能够正确地分类99%以上的信号。

参考文献

[1] Rieth, c.a, b.d Amsel, R. Tran。和B. Maia。用于异常检测评估的额外田纳西州伊士曼过程模拟数据哈佛数据厌恶,2017年第1版。https://doi.org/10.7910/DVN/6C3JR1

Heo, S.和J. H. Lee。用人工神经网络进行故障检测和分类韩国科学技术高等研究院化学与生物分子工程系。

辅助函数

helperPreprocess

辅助函数helperPreprocess使用最大样本数对数据进行预处理。样本号表示信号长度,它在整个数据集上是一致的。for循环通过信号长度滤波器遍历数据集,形成52个信号集。每个集合是单元格数组的一个元素。每个单元阵列代表一个单独的模拟。

函数H = size(mydata);处理= {};if (ind = 1:limit:H x = mydata(ind:(ind+(limit-1)),4:end));处理=[处理;x ');结束结束

helperNormalize

辅助函数helperNormalize使用数据、平均值和标准差对数据进行归一化处理。

函数data = helperNormalize(数据、m s)印第安纳州= 1:尺寸数据(数据){印第安纳}={印第安纳}- m(数据)/ s;结束结束

另请参阅

|||

相关的话题