1 / 5
文档名称:

2自适应LMS算法地地地研究.docx

格式:docx   大小:84KB   页数:5页
下载后只包含 1 个 DOCX 格式的文档,没有任何的图纸或源代码,查看文件列表

如果您已付费下载过本站文档,您可以点这里二次下载

分享

预览

2自适应LMS算法地地地研究.docx

上传人:2072510724 2021/10/10 文件大小:84 KB

下载得到文件列表

2自适应LMS算法地地地研究.docx

相关文档

文档介绍

文档介绍:实用标准文案
精彩文档
2自适应LMS算法的研究

自适应算法中使用最广的是下降算法,下降算法的实现方式有两种 :自适应 梯度算法和自适应高斯一牛顿算法。自适应高斯一牛顿算法包括 RLS算法及其变 型和改进型,自适应梯度算法包括 LMTJ法及其变型和改进型
FIR滤波器的自适应实现
滤波器设计准则是使滤波器实际输出 y(n)与期望响应d(n)之间的均方误差
J(n)为最小,这称为最小均方误差(MMSE)1则。
。所谓自适应实现是指:M阶FIR 滤波器的抽头权系数wo, w,-i,可以根据估计误差e(n)的大小自动调节, 使得某个代价函数最小。
定义均方误差J(n)为代价函数,因为滤波器在n时刻的估计误差 e(n)=d(n)-W T(n)u(n)
( )
所以代价函数
J(n)=E{d 2(n)-2 P TW(n)+ W(n)E[u(n)u T(n)]W(N)}
P=E[d(n)u(n)]
由此可得J(n)的梯度(具体推导见参考文献[1」)
▽ J(n)=2E[u(n)u T(n)]W(n)-2P ()
实用标准文案
精彩文档
LMS算法及其基本变型
实用标准文案
精彩文档
自适应算法中最常用的下降算法为最陡下降算法,其更新方向向量取第 n次
迭代的代价函数J(n)的负梯度它的统一形式为
w(n+1)=w(n)-业▽ J(n)
式中w(n)为第n次迭代的权向量,-▽」(□)为第n次迭代的更新方向向量,以为 第n次迭代的更新步长,它用来控制稳定性和收敛速度。
若将▽」(□)中的真实梯度向量用瞬时梯度向量代替,我们可得到由 Windrow和
Hoff在60年代初提出的著名的最小均方误差自适应算法 (简称LM就法):
w(n+1)=w(n)+2 - e(n)u(n) ()
上式表明,LMS算法是一种递归运算,它不需要对信号的统计特性有先验 的了解,而只是使用它们的瞬时估计值,运算得到的只是权重系数的估计值,但 随着时间的增加,权重系数逐步调整,估计值也逐步改善,最终得到收敛值。收 敛的条件是:
()
w(n)
max
Wnrr
w(n)的自适应调整过程
式中幻ax的输入和输出采样需要作大约 2N+1次乘一加运算。是输入数据协
方差矩阵的本征值。实际上,w(n)永远不会收敛到理论上的最佳值, 而是在最佳 值上下振荡,。仙值控制了自适应的“增益”,它的大小应该在算 法的收敛性能和系数的振荡幅度这两个因素之间折中。
实用标准文案