文档介绍:小结:一元线性回归模型的参数估计
利用参数的普通最小二乘估计(OLS)
要估计一元线性回归模型:
普通最小二乘法:残差的平方和最小。
参数估计量的计算公式为:
选取一组样本观测值(Xi, Yi)(i=1,2,…n),求样本回归函数
,尽可能好地拟合这组值.
小结:用EXCEL和Eviews实现最小二乘法
1、用“EXCEL实现最小二乘法”:
利用菜单中“工具→数据分析→回归”
说明:男生的数学分数每增加1分,平均而言,,-。
小结:用EXCEL和Eviews实现最小二乘法
2、用“Eveiws实现最小二乘法”:
在菜单中“Quick→Estimake Euqation”对话框中输入:“Y C X”
说明:男生的数学分数每增加1分,平均而言,,-。
§ 一元线性回归模型的统计检验
回归分析是要通过样本所估计的参数来代替总体的真实参数,或者说是用样本回归线代替总体回归线。
在一次抽样中,估计值不一定就等于该真值,但如果有足够多的重复抽样,参数的估计值的期望(均值)就等于其总体的参数真值。
问题:怎样判别样本回归函数确实是真实的总体回归函数的一个好的估计量?
那么,在一次抽样中,参数的估计值与真值的差异有多大,是否显著,这就需要进一步进行统计检验。
主要包括拟合优度检验、变量的显著性检验及参数的区间估计。
一、拟合优度检验:判定系数R2
拟合优度检验:是对样本回归直线与样本观测值之间拟合程度的检验。显然若观测点离回归直线近,则拟合程度好;反之则拟合程度差。
度量拟合优度的指标:判定系数(或可决系数)R 2
问题:采用普通最小二乘估计方法,已经保证了模型最好地拟合了样本观测值,为什么还要检验拟合程度?
1、总离差平方和的分解
已知由一组样本观测值(Xi,Yi),i=1,2…,n得到如下样本回归直线
如果Yi=Ŷi 即实际观测值落在样本回归“线”上,则拟合最好。此时可认为。
称为回归差
称为残差
残差越小,拟合越好!
离差=回归差+残差
对于所有样本点,则需考虑这些点与样本均值离差的平方和
很惊奇的结论:
记
总平方和(Total Sum of Squares)
解释平方和(Explained Sum of Squares)
残差平方和(Residual Sum of Squares )
总平方和TSS = 解释平方和ESS + 残差平方和RSS
离差=回归差+残差
在给定样本中,TSS不变,
如果实际观测点离样本回归线越近,则ESS在TSS中占的比重越大,因此
TSS=ESS+RSS
拟合优度用
来表示
判定系数
2、判定系数R2统计量
用来检验模型的拟合程度,称 R2 为(样本)判定系数
判定系数R2的性质
(1)非负性
(2)判定系数的取值范围[0,1]
根据上述关系,令
R2的值越接近1,说明实际观测点离样本线越近,回归直线对观测值的拟合程度越好;
R2的值越接近0,说明回归直线对观测值的拟合程度越差。