1 / 28
文档名称:

用r语言进行分位数回归.doc

格式:doc   大小:188KB   页数:28页
下载后只包含 1 个 DOC 格式的文档,没有任何的图纸或源代码,查看文件列表

如果您已付费下载过本站文档,您可以点这里二次下载

分享

预览

用r语言进行分位数回归.doc

上传人:tswng35 2021/12/31 文件大小:188 KB

下载得到文件列表

用r语言进行分位数回归.doc

相关文档

文档介绍

文档介绍:. .
. v .
用R语言进展分位数回归:根底篇
詹鹏
〔师大学经济管理学院〕
本文根据文献资料整理,以介绍方法为主要目的。作者的主要奉献有:〔1〕整理了分位数回归的一些根本原理和方法;〔2〕归纳了用R语言处理分位数回归的程序,其中写了两个函数整合估计结果;〔3〕写了一个分位数分解函数来处理MM2005的分解过程;〔4〕使用一个数据集进展案例分析,完整地展现了分析过程。
第一节分位数回归介绍
〔一〕为什么需要分位数回归.
传统的线性回归模型描述了因变量的条件均值分布受自变量X的影响过程。其中,最小二乘法是估计回归系数的最根本方法。如果模型的随机误差项来自均值为零、方差一样的分布,那么回归系数的最小二乘估计为最正确线性无偏估计〔BLUE〕;如果随机误差项是正态分布,那么回归系数的最小二乘估计与极大似然估计一致,均为最小方差无偏估计〔MVUL〕。此时它具有无偏性、有效性等优良性质。
但是在实际的经济生活中,这种假设通常不能够满足。例如当数据中存在严重的异方差,或后尾、尖峰情况时,最小二乘法的估计将不再具有上述优良性质。为了弥补普通最小二乘法〔OLS〕在回归分析中的缺陷,1818年Laplace[2]提出了中位数回归〔最小绝对偏差估计〕。在此根底上,1978年Koenker和Bassett[3]把中位数回归推广到了一般的分位数回归〔Quantile Regression〕上。
分位数回归相对于最小二乘回归,应用条件更加宽松,挖掘的信息更加丰富。它依据因变量的条件分位数对自变量X进展回归,这样得到了所有分位数下的回归模型。因此分位数回归相比普通的最小二乘回归,能够更加准确第描述自变量X对因变量Y的变化围,以及条件分布形状的影响。
〔二〕一个简单的分位数回归模型[4]
假设随机变量的分布函数为
〔1〕
Y的分位数的定义为满足的最小值,即
〔2〕
回归分析的根本思想就是使样本值与拟合值之间的距离最短,对于Y的一组随机样本,样本均值回归是使误差平方和最小,即
〔3〕
样本中位数回归是使误差绝对值之和最小,即
〔4〕
样本分位数回归是使加权误差绝对值之和最小,即
〔5〕
上式可等价表示为:
其中,为检查函数〔check function〕,定义为:
. .
. v .
其中,为指示函数〔indicator function〕,z是条件关系式,当z为真时,;当z为假时,。同线性方程y=kx比拟,相当于直线的斜率k,可以看出,为分段函数,如下列图所示。
现假设因变量Y由k个自变量组成的矩阵X线性表示,对于条件均值函数,通过求解〔8〕式得到参数估计值
对于条件分位数函数,通过求解〔9〕式得到参数估计值
式中,函数表示取函数最小值时的取值。
〔三〕分位数回归模型的参数估计算法
1、主要算法
〔1〕单纯形算法〔Simplex Method〕
Koenker和Orey[5]〔1993〕把分两步解决最优化问题的单纯形算法[6]扩展到所有回归分位数中。该算法估计出来的参数具有很好的稳定性,但是在处理大型数据时运算的速度会显著降低。
〔2〕点算法〔Interior Point Method〕
由于单纯形算法在处理大型数据时效率低下,Karmarker提出了点算法[7];Portnoy和Koenker把这种方法是用在分位数回归中,得出了处理大型数据时点算法的运算速度远快于单纯形算法的结论。但点算法每计算一步都要进展因数分解,当自变量比拟多的时候效率比拟低。其次,如果要到达和单纯形算法一样的精度,就必须进展舍入步骤的计算,者也降低了算法的运行效率。
〔3〕平滑算法〔Smoothing Method〕
上述两种算法都有各自的优点和缺乏,而有限平滑算法那么是一种同时兼顾运算效率以及运算速度的方法。Chen把这种算法扩展到计算回归分位数中[8]。
2、R语言quantreg包中的假设检验
加载quantreg包以后,使用summary()()函数,可以得到参数系数的一些假设检验统计量。其实,以上两个函数是一致的。在使用summary()的时候,如果sumamry()加载的模型〔对象〕是分位数回归模型,那么会自动调用summar