1 / 172
文档名称:

第5章 自适应滤波.ppt

格式:ppt   大小:9,135KB   页数:172页
下载后只包含 1 个 PPT 格式的文档,没有任何的图纸或源代码,查看文件列表

如果您已付费下载过本站文档,您可以点这里二次下载

分享

预览

第5章 自适应滤波.ppt

上传人:卓小妹 2022/4/28 文件大小:8.92 MB

下载得到文件列表

第5章 自适应滤波.ppt

相关文档

文档介绍

文档介绍:第5章 自适应滤波
*
*
第1页,共172页,编辑于2022年,星期二
问题的描述:
滤波器的输入信号为x(n),其单位冲激响应为h(n)。现要求滤波器的输出y(n)是对需要信号d(n)的一个最佳估计。使它的输出y--所要求的存储数据和程序的大小, 算法编程上的其它计算机投资
⑥结构:算法的信息流结构及硬件实现的方式。并行算法、模 块化等。
⑦数值特性:算法对数值量化效应的敏感程度。
2 自适应滤波器性能指标
*
*
第16页,共172页,编辑于2022年,星期二
2 自适应滤波器性能指标
①根据实际应用的要求和费效比最低原则,折衷取舍以上指标
②可以从最简单的LMS算法出发
③应充分考虑各种应用的特殊性,各类算法的优缺点,针对具体应用选用最佳算法。
2)如何选择AF
*
*
第17页,共172页,编辑于2022年,星期二
最小均方自适应滤波算法
最陡下降法
LMS算法
LMS牛顿算法
归一化LMS算法
变换域块LMS算法
*
*
第18页,共172页,编辑于2022年,星期二
最陡下降法
1 基本思想
1)依据:wiener滤波器的均方误差曲面 J(w) 是权矢量w的二次函数,不存在局部最小点。
2)方法:从任意初始值 w(0) 出发,沿J(w) 的负梯度方向(最陡下降方向)按一定步长进行迭代搜索至最小点。
3)算法公式推导:
*
*
第19页,共172页,编辑于2022年,星期二
最陡下降法
*
*
第20页,共172页,编辑于2022年,星期二
2 稳定性分析(迭代收敛条件)
1) 旋转平移变换
*
*
第21页,共172页,编辑于2022年,星期二
2) 权矢量收敛条件:
2 稳定性分析(迭代收敛条件)
*
*
第22页,共172页,编辑于2022年,星期二
3) 权矢量收敛时间常数:
2 稳定性分析(迭代收敛条件)
*
*
第23页,共172页,编辑于2022年,星期二
3 均方误差的瞬态特性(学****曲线):
*
*
第24页,共172页,编辑于2022年,星期二
1) 基本关系式:为加快收敛,取尽可能大的步长,令
2) 实验研究:输入信号为二阶AR过程
固定步长,改变R的特征值散布
固定特征值散布,改变步长
4 R的特征值散布对收敛性的影响
*
*
第25页,共172页,编辑于2022年,星期二
4 R的特征值散布对收敛性的影响
*
*
第26页,共172页,编辑于2022年,星期二
4 R的特征值散布对收敛性的影响
*
*
第27页,共172页,编辑于2022年,星期二
4 R的特征值散布对收敛性的影响
*
*
第28页,共172页,编辑于2022年,星期二
4 R的特征值散布对收敛性的影响
*
*
第29页,共172页,编辑于2022年,星期二
权矢量随n变化的轨迹在每个时刻n都正交于J(n)(等高线);
当两特征值越接近相等时(输入各分量越不相关时),权矢量随n变化的轨迹越接近直线,收敛越快;
当旋转平移后的权矢量初值位于坐标轴上时,权矢量的变化 轨迹为直线(轨迹沿坐标轴),收敛快;
5 结论
*
*
第30页,共172页,编辑于2022年,星期二
对于固定步长,R特征值散布越大(输入各分量越相关),则收敛后的最小均方误差越小,即作为预测器效果越好;
随步长的增加,收敛过程加快,但步长增大到一定程度(与 R的特征值散布有关),在接近最优点时将出现振荡现象(可用各种变步长算法抑制)
最陡下降法
除上述两特殊情况外,权矢量随n变化的轨迹一般为曲线,并且对于固定的步长,其弯曲程度随R特征值散布的加大而加剧,即收敛越慢(可用正交化算法改善);
*
*
第31页,共172页,编辑于2022年,星期二
LMS算法
1 问题的提出
在实际中是无法得到的,因而只能用估计值代替。使用P和R的瞬时估计就得到LMS算法。
SD算法的不足:
⑴最陡下降法的迭代公式中存在P和R,它们是集平均值,若P和R 确定,迭代过程和结果就确定;
⑵ 与输入信号变化无关,不具有自适应性。
*
*
第32页,共172页,编辑于2022年,星期二
令瞬时互相关矢量:
瞬时自相关矩阵:
2 基本的LMS算法
*
*
第33页,共172页,编辑于2022年,星期二
由于P和R的瞬时估计为随机量,因而由它们构成的梯度是随机梯度,所以LMS算法也称随机梯度搜索法;
由于梯度的随机性,使权矢量也是随机变量。权矢量随n的增加是随机趋向最佳点,而不是象最陡下降法那样的确