modwtLayer
描述
MODWT层计算MODWT和MODWT多分辨率分析(MRA)的输入。使用这一层需要深度学习工具箱™。
创建
描述
属性
MODWT
小波
- - - - - -正交小波
“sym4”
(默认)|特征向量|字符串标量
这个属性是只读的。
正交小波用于MODWT,名称指定为一个特征向量或字符串标量。
正交小波被指定为1型小波的小波经理。有效的内置正交小波的家庭“哈雾”
,的数据库N”
,的颗N”
,“头巾N”
,的提单N”
,“汉老。LP”
,“信谊N”
,“乌”
,或“beyl”
。使用waveinfo
与小波家族短名称看到任何支持值数值后缀和如何解释这些值。金宝app例如,waveinfo(汉族)
。
小波所指定的wname,相关的低通和高通滤波器罗
和嗨
分别是(~,~,嗨)= wfilters (wname)
。
数据类型:字符
|字符串
LowpassFilter, HighpassFilter
- - - - - -最初的小波滤波器组
就是实值向量
这个属性是只读的。
最初的小波滤波器组,指定为一对就是实值向量。向量的长度必须相等。LowpassFilter
和HighpassFilter
必须对应于低通和高通滤波器,分别与正交小波。您可以使用isorthwfb
确定正交性。
(~,~,嗨)= wfilters (“db2”);[tf,检查]= isorthwfb (Lo,嗨);
[]
和modwtLayer
使用小波
确定MODWT使用的过滤器。
你不能指定一个小波的名字和一双小波滤波器。
例子:层= modwtLayer (‘LowpassFilter’,‘HighpassFilter’,嗨)
数据类型:单
|双
水平
- - - - - -变换水平
5
(默认)|正整数
这个属性是只读的。
变换计算MODWT水平,指定为一个正整数小于或等于地板(log2 (N))
,在那里N是输入层的大小在时间维度。
数据类型:单
|双
边界
- - - - - -边界条件
“周期”
(默认)|“反射”
这个属性是只读的。
边界条件的计算使用MODWT,指定为其中的一个:
“周期”
——信号沿着时间维度定期延长。小波系数的数量等于信号在时间维度的大小。“反射”
沿着时间维度——信号反射对称计算MODWT之前在终端。返回数的小波系数是输入信号的长度的两倍。
SelectedLevels
- - - - - -选定的水平
1:水平
(默认)|向量
水平
这个属性是只读的。
选定的水平modwtLayer
输出,指定为一个向量的正整数小于或等于水平
。
数据类型:单
|双
IncludeLowpass
- - - - - -包括低通滤波器系数
真正的
或1
(默认)|假
或0
这个属性是只读的。
包括低通滤波器系数,指定为一个数字或逻辑1
(真正的
)或0
(假
)。如果指定为真正的
,MODWT层包括水平
th MODWT水平低通(扩展)系数,或水平
th MODWTMRA水平光滑。
数据类型:逻辑
AggregateLevels
- - - - - -总选择水平
假
或0
(默认)|真正的
或1
这个属性是只读的。
总选择水平,指定为一个数字或逻辑1
(真正的
)或0
(假
)。如果指定为真正的
,MODWT层骨料(如果选中的水平和低通水平IncludeLowpass
是真正的
每个输入通道的总和。如果AggregateLevels
是真正的
输出的大小,空间维度1
。有关更多信息,比较modwtLayer输出和modwt modwtmra输出。
数据类型:逻辑
算法
- - - - - -算法
“MODWTMRA”
(默认)|“MODWT”
这个属性是只读的。
算法modwtLayer
用来计算输出,指定为其中的一个:
“MODWTMRA”
——计算基于极大重叠离散小波变换的多分辨率分析。“MODWT”
——计算极大重叠离散小波变换的小波系数。
有关更多信息,请参见比较MODWT和MODWTMRA。
层
WeightLearnRateFactor
- - - - - -乘数为学习速率
0
(默认)|负的标量
乘数为体重学习速率,指定为负的标量。如果不指定,该属性默认为零,导致权重不更新培训。你也可以设置该属性使用setLearnRateFactor
(深度学习工具箱)函数。
可学的参数“重量”
在modwtLayer
是一个棱矩阵对当前的过滤器。第一行是低通滤波器和高通滤波器是第二行。默认情况下,权重与默认小波相关的低通和高通滤波器,不更新。
数据类型:单
|双
的名字
- - - - - -层的名字
”
(默认)|特征向量|字符串标量
图层名称,指定为一个特征向量或字符串标量。为层
数组输入,trainNetwork
(深度学习工具箱),assembleNetwork
(深度学习工具箱),layerGraph
(深度学习工具箱),dlnetwork
(深度学习工具箱)函数自动分配名称层的名称”
。
数据类型:字符
|字符串
NumInputs
- - - - - -输入数量
1
(默认)
这个属性是只读的。
输入层的数量。这一层只接受一个输入。
数据类型:双
InputNames
- - - - - -输入名字
{"在"}
(默认)
这个属性是只读的。
输入层的名称。这一层只接受一个输入。
数据类型:细胞
NumOutputs
- - - - - -数量的输出
1
(默认)
这个属性是只读的。
输出层的数量。这一层只有一个输出。
数据类型:双
OutputNames
- - - - - -输出的名字
{“出”}
(默认)
这个属性是只读的。
输出层的名称。这一层只有一个输出。
数据类型:细胞
例子
使用modwtLayer
在深入学习网络
创建一个MODWT层来计算输入信号的多分辨率分析。使用一个coiflet 5小波与秩序。变换级别设置为8。只保留细节水平3、5、7,近似。
层= modwtLayer(小波=“coif5”= 8级,…SelectedLevels = (3、5、7) Name =“MODWT”);
创建一个dlnetwork
对象包含一个序列输入层,MODWT层,和一个LSTM层。8级分解,设定最低序列长度为2 ^ 8样本。使用LSTM层,平层LSTM层崩溃之前还需要空间维度进入频道维度。
mLength = 2 ^ 8;sqLayer = sequenceInputLayer (Name =“输入”最小长度= mLength);层= [sqLayer层flattenLayer lstmLayer (Name =“LSTM”));dlnet = dlnetwork(层);
运行一个批10个随机单通道信号通过dlnetwork
对象。检查输出的大小和尺寸。平层已经崩溃的空间维度。
dataout = dlnet.forward (dlarray (randn (1, 2000,“单一”),“认知行为治疗”));大小(dataout)
ans =1×310 2000
dim (dataout)
ans =“认知行为治疗”
比较modwtLayer
输出与modwt
和modwtmra
输出
数据集加载Espiga3脑电图(EEG)。脑电图采样的数据由23频道在200赫兹。有995个样本在每个通道。保存multisignal作为dlarray
,指定的尺寸。dlarray
排列的阵列尺寸“认知行为治疗”
所期望塑造一个深度学习网络。
负载Espiga3(N, nch) = (Espiga3)大小;x = dlarray (Espiga3“TCB”);
使用modwt
和modwtmra
获取MODWT和MRA multisignal 6级。默认情况下,modwt
和modwtmra
使用sym4
小波。
列弗= 6;wt = modwt (Espiga3,列弗);mra = modwtmra (wt);
与modwt
创建一个MODWT层可以使用的数据。变换级别设置为6。指定要使用的层MODWT计算输出。默认情况下,层使用sym4
小波。
mlayer = = modwtLayer(水平=列弗,算法“MODWT”);
创建一个两层的dlnetwork
对象包含一个序列输入层和MODWT层刚刚创建。对待每个通道特性。6级分解,设定最低序列长度为2 ^ 6。
mLength = mlayer.Level;sqInput = sequenceInputLayer (nch最小长度= 2 ^ mLength);层= [sqInput mlayer];dlnet = dlnetwork(层);
通过运行脑电图数据向前
网络的方法。
向前dataout = (dlnet x);
的modwt
和modwtmra
函数返回MODWT和MRA的多通道信号作为一个三维数组。第一、第二、第三维度的数组对应小波分解层次,信号长度,分别和通道。网络的输出转换为一个数字数组。交换网络输出的尺寸匹配函数的输出。比较网络输出的modwt
输出。
q = extractdata (dataout);q =排列(q, [1 4 2 3]);马克斯(abs (q (:) wt (:)))
ans = 8.4402 e-05
选择一个MODWT源于modwtLayer
。与相应的通道脑电图数据。每个级别的modwtLayer
输出。不同级别包含信号在不同频率范围的信息。水平不是时间与原始信号,因为层使用MODWT算法。
频道= 10;t = 100:400;次要情节(lev + 2 1 1)情节(t, Espiga3 (t,频道))ylabel (“原始脑电图”)为k = 2: lev + 1次要情节(lev + 2 1 k)情节(t, q (k - 1 t频道))ylabel ([“水平”k - 1,“MODWT”])结束次要情节(lev + 2 1列弗+ 2)情节(t, q (lev + 1 t频道))ylabel ([“缩放”,“系数”,“MODWT”])集(gcf位置= [0 0 500 700])
与modwtmra
创建第二个网络类似于第一个网络,除了这一次指定modwtLayer
使用MODWTMRA算法和总第四,第五,第六的水平。不包括低通级别的聚合。
sLevels = (4 5 6);=列弗mlayer = modwtLayer(水平,…SelectedLevels = sLevels,…IncludeLowpass = 0,…AggregateLevels = 1);层= [sqInput mlayer];dlnet2 = dlnetwork(层);
通过运行脑电图数据向前
网络的方法。网络的输出转换为一个数字数组。排列的维度之前完成。
向前dataout = (dlnet2 x);q = extractdata (dataout);q =排列(q, [1 4 3 2]);
总第四、第五和第六种MRA的水平。与网络的输出。
mraAggregate =总和(mra (sLevels,:,:));马克斯(abs (q (:) -mraAggregate (:)))
ans = 2.1036 e-04
检查MODWTMRA层的结果。与相应的通道脑电图数据。通过选择只有第四,第五,和6的水平,和不包括低通滤波器组件层删除几个高、低频率成分的信号。转换后的信号比原始信号平滑和低频组件被删除,以便抵消更接近于0。输出是时间与原始信号,因为层使用默认MODWTMRA算法。取决于你的目标,保留时间对齐可以是有用的。
频道= 10;t = 100:400;图保存在情节(t, Espiga3 (t,频道))情节(t, q (1 t 1、通道))从传奇([“原始脑电图”,“层输出”),…位置=“西北”)
比较MODWT和MODWTMRA
这个例子演示了MODWT之间的差异和MODWTMRA。MODWT分区一个信号的能量在细节系数和缩放系数。MODWTMRA项目一个信号在小波子空间和一个扩展子空间。
选择sym6
小波。加载和情节心电图(ECG)信号。心电信号的采样频率为180赫兹。数据来自珀西瓦尔和《瓦尔登湖》(2000),p。125(data originally provided by William Constantine and Per Reinhall, University of Washington).
负载wecgt =(0:元素个数(wecg) 1) / 180;西弗吉尼亚州=“sym6”;情节(t, wecg)网格在标题([“信号长度= 'num2str(元素个数(wecg))))包含(“时间(s)”)ylabel (“振幅”)
的MODWT信号。
西弗吉尼亚州wtecg = modwt (wecg);
输入数据是一个函数的样本
评估在
时间点。函数可以表示为一个扩展函数的线性组合
和小波
在不同的尺度和翻译:
,在那里
和
是小波分解的层数。第一笔是粗尺度的近似信号,和
在连续的尺度上的细节。MODWT返回
系数
和
细节系数
的扩张。在每一行wtecg
包含系数在不同的规模。
当把MODWT长度的信号
,有
默认的分解。细节系数在每个生产水平。比例系数只返回最后的水平。在这个例子中,
,
的行数wtecg
是
。
MODWT分区的能量在不同的尺度和比例系数: ,在那里 是输入数据, 细节系数在尺度 , 是最后一个级别的比例系数。
计算的能量在每个规模,并评估它们的和。
energy_by_scales = (wtecg。^ 2, 2)总和;水平= {“D1”;“D2”;“D3”;“D4”;“D5”;“D6”;…“D7”;D8的;“D9”;“D10”;“这里”;“A11”};energy_table =表(水平,energy_by_scales);disp (energy_table)
14.063水平energy_by_scales _________ ___________ {D1的}{“D2”} 20.612 {D3的}37.716 25.123 {D4的}{}“D5”17.437 8.9852 {D6的}{D7的}1.2906 {D8的}4.7278 12.205 {D9的}{D10的}{‘这里’}76.268 76.428 3.4192 {“A11”}
energy_total = varfun (@sum energy_table (:, 2))
energy_total =表298.28 sum_energy_by_scales ____________________
确认MODWT energy-preserving是通过计算信号的能量和比较它与所有尺度上的能量的总和。
energy_ecg =总和(wecg。^ 2);马克斯(abs (energy_total.sum_energy_by_scales-energy_ecg))
ans = 7.4402平台以及
的MODWTMRA信号。
西弗吉尼亚州mraecg = modwtmra (wtecg);
MODWTMRA返回函数的预测
在不同的小波子空间和最终的扩展空间。也就是说,MODWTMRA回报
和
许多
评估在
时间点。在每一行mraecg
是一个投影
到不同的子空间。这意味着可以恢复原始信号通过添加所有的预测。这不是真正的MODWT。添加系数wtecg
不会恢复原始信号。
选择一个时间点,添加的预测 评估时间点,并与原始信号。
time_point = 1000;abs(总和(mraecg (:, time_point)) -wecg (time_point))
ans = 3.0846 e-13
确认,不像MODWT, MODWTMRA不是一个energy-preserving变换。
energy_ecg =总和(wecg。^ 2);energy_mra_scales = (mraecg。^ 2, 2)总和;energy_mra =总和(energy_mra_scales);马克斯(abs (energy_mra-energy_ecg))
ans = 115.7053
MODWTMRA是零相位滤波的信号。将time-aligned特性。显示通过绘制原始信号和它的一个预测。为了更好地说明了对齐,放大。
情节(t, wecg“b”)举行在:情节(t, mraecg (4),“- - -”)举行从网格在传说xlim (8 [4]) (“信号”,“投影”,“位置”,“西北”)包含(“时间(s)”)ylabel (“振幅”)
做一个类似的阴谋使用MODWT系数相同的规模。不会time-aligned特性。MODWT不是零相位滤波的输入。
情节(t, wecg“b”)举行在:情节(t, wtecg (4),“- - -”)举行从网格在传说xlim (8 [4]) (“信号”,“系数”,“位置”,“西北”)包含(“时间(s)”)ylabel (“振幅”)
更多关于
层输出格式
modwtLayer
格式的输出“SCBT”
一系列一维图像,图像高度对应的小波变换,第二个维度对应渠道,第三维对应于批处理,和第四维对应于时间。的kth行,k≤水平
,包含了k级别的细节信号。的(
th行包含水平
+ 1)水平
th水平光滑的信号。
你可以养活的输出
modwtLayer
不变的一维卷积层沿水平(当你想要卷“S”
)维度。有关更多信息,请参见convolution1dLayer
(深度学习工具箱)。的输出
modwtLayer
当你想要到一个一维卷积层卷沿时间(“T”
)尺寸,必须放置一个平层后modwtLayer
。有关更多信息,请参见flattenLayer
(深度学习工具箱)。你可以养活的输出
modwtLayer
不变的二维卷积层沿水平(当你想要卷“S”
)和时间(“T”
共同)维度。有关更多信息,请参见convolution2dLayer
(深度学习工具箱)。使用
modwtLayer
递归神经网络的一部分,你必须放置一个平层后modwtLayer
。有关更多信息,请参见lstmLayer
(深度学习工具箱)和gruLayer
(深度学习工具箱)。使用的输出
modwtLayer
与一个完全连接层作为一个分类工作流的一部分,你必须减少时间(“T”
)输出的尺寸大小为1。减少输出的时间维度,将全球池层之前完全连接层。有关更多信息,请参见globalAveragePooling2dLayer
(深度学习工具箱)和fullyConnectedLayer
(深度学习工具箱)。
版本历史
介绍了R2022b
Abrir比如
这种版本modificada德埃斯特比如。害怕Desea abrir埃斯特比如con sus modificaciones吗?
第一de MATLAB
Ha事实clic en联合国围绕此时一个埃斯特第一de MATLAB:
Ejecute el第一introduciendolo en la ventana de第一de MATLAB。洛杉矶navegadores网络没有admiten第一de MATLAB。
你也可以从下面的列表中选择一个网站:
表现最好的网站怎么走吗
选择中国网站(中文或英文)最佳站点的性能。其他MathWorks国家网站不优化的访问你的位置。