主要内容

比较RLS和LMS自适应滤波算法

最小均方(LMS)算法是自适应算法中最简单、最容易应用的算法。另一方面,递归最小二乘(RLS)算法以其卓越的性能和更高的保真度而闻名,但它们也带来了更高的复杂性和计算成本。在性能上,RLS接近自适应滤波应用中的卡尔曼滤波器,在信号处理器中需要的吞吐量有所降低。与LMS算法相比,RLS算法对未知系统收敛速度快,误差小,但计算量大。

请注意,无论滤波器使用RLS还是LMS,信号路径和标识都是相同的。区别在于适应部分。

LMS滤波器调整它们的系数,直到期望信号和实际信号之间的差被最小化(误差信号的最小均方)。这是滤波器权值收敛到最优值的状态,也就是说,它们收敛到足够接近未知系统的实际系数。这类算法是根据当前的误差来适应的。RLS自适应滤波器是一种递归地寻找滤波器系数的算法,使与输入信号相关的加权线性最小二乘代价函数最小化。这些滤波器根据从一开始计算的总误差进行自适应。

LMS滤波器使用基于梯度的方法来执行自适应。初始权值假定很小,在大多数情况下非常接近于零。在每一步,滤波权值都是基于均方误差的梯度来更新的。如果梯度是正的,则滤波器权值减小,这样误差就不会正增加。如果梯度为负,则滤波器权值增加。权重变化的步长必须选择适当。如果步长非常小,算法收敛非常慢。如果步长非常大,算法收敛速度很快,系统在最小误差值时可能不稳定。为了有一个稳定的系统,步长μ必须在以下限制范围内:

0 < μ < 2 λ 马克斯

在哪里λ马克斯为输入自相关矩阵的最大特征值。

RLS滤波器使代价函数最小化,C通过适当地选择过滤系数w(n),并在新数据到达时更新过滤器。代价函数为:

C w n 0 n λ n e 2

在哪里

  • wn—RLS自适应滤波系数。

  • e(i) -期望信号之间的误差d和期望信号的估计桌子在当前时间索引。信号桌子是RLS滤波器的输出,因此隐式地依赖于当前滤波器系数。

  • λ -遗忘因子,在0 < λ≤1范围内指定,赋予旧样本指数级更小的权重。当λ= 1时,认为所有以前的误差在总误差中的权重相等。当λ接近0时,过去的误差在总误差中所起的作用较小。例如,当λ= 0.1时,RLS算法将过去50个样本的误差值乘以衰减因子0.150= 1 x 10−50,大大弱化了过去错误对当前总错误的影响。

    在错误值可能来自一个或多个虚假输入数据点的情况下,遗忘因子让RLS算法通过将旧数据乘以遗忘因子来降低旧错误数据的重要性。

该表总结了两种算法之间的主要区别:

LMS算法 RLS算法
简单,易于应用。 增加了复杂性和计算成本。
收敛时间更长。 更快的收敛。
自适应是基于基于梯度的方法,更新滤波器权值以收敛到最优滤波器权值。 自适应是基于递归的方法,找到滤波器系数,使与输入信号相关的加权线性最小二乘代价函数最小化。
相对于未知系统更大的稳态误差。 相对于未知系统的稳态误差较小。
不考虑过去的数据。 说明从开始到当前数据点的过去数据。
目标是最小化期望信号和输出之间的电流均方误差。 目标是最小化期望信号和输出之间的总加权平方误差。
涉及任何内存。旧的错误值在考虑的总错误中不起作用。

有无限的记忆。所有误差数据都考虑在总误差中。使用遗忘因子,较旧的数据与较新的数据相比可以降低重要性。

从0≤λ< 1时,应用该因子相当于对旧误差进行加权。

DSP System Toolbox™中基于LMS的FIR自适应滤波器:

DSP系统工具箱中基于RLS的FIR自适应滤波器:

在一定范围内,您可以使用任何自适应滤波器算法来解决自适应滤波器问题,方法是用新算法替换应用程序的自适应部分。

另请参阅

对象

相关的话题

参考文献

海耶斯(Monson H. Hayes)统计数字信号处理与建模.霍博肯:John Wiley & Sons, 1996,第493 - 552页。

[2]微积分,西门,自适应滤波器理论.上鞍河,新泽西州:Prentice-Hall, Inc., 1996。