文档介绍:1
第八章回归分析
第一节一元线性回归分析
第二节可线性化的一元非线性回归问题
第三节多元线性回归分析
第四节逐步回归分析
第五节处理多元线性回归中自变量共线性的几种方法
第七节含有定性变量的回归分析
第八节通径分析
第六节多元非线性回归分析
2
回归分析(regression analysis)是指由自变量的变异来估计因
变量的变异问题,具体可通过建立回归方程来实现. 在热带作物
栽培和加工试验以及作物病虫害预测预报的研究中, 回归分析
, 应用回归分析可
由蓬距、幼苗期刺检干胶量、叶脉角度等估测产胶量;在橡胶
树白粉病研究中,用越冬菌量、温度、湿度及橡胶物候等因子
可预测白粉病的流行强度等等.
按自变量个数的多少可将回归分析分为一元回归分析和多元
,含有
和因变量之间内在联系特征的不同,又可将回归问题分为线性回
归和非线性回归分析.
本章着重介绍应用国际通用统计软件SAS进行线性和非线性
回归分析的方法
3
一. 回归模型
第一节一元线性回归分析
回归模型建立的直观思想
如果对于自变量 x 的一个观测值 xi ,因变量y有一个相应的观
察值yi与之对应,则称(xi , yi)组成一对观察值. 现假定x与y有n对
观察值(x1, y1), (x2 , y2) ,…, (xn , yn),把这n个点(xi , yi) 画在平面直
角坐标系上,得到如图8—1所示的散点图.
y=a+bx
y
图8—1 观测值(xi ,yi)散点图
4
从散点图可以看出,随着自变量x的增加,因变量y也呈现上
升的趋势,图中的点大致分布在一条向右方倾斜的直线附近,因
而可以用一条直线方程来近似的逼近
即 yi=b0+b1xi+ei i=1 , 2, …, n
其中ei ~N(0 ,s 2), ei 是相互独立的随机变量序列且它们的方差
相同(方差齐性),称为回归直线(方程).
对于一元线性回归模型,我们要解决以下问题:
(1)参数估计:给出参数b0 , b1 , s 2 的估计值.
(2)显著性检验:检验线性函数 yi=b0+b1xi 用来描述因变量 y
与自变量 x 的关系是否合适,包括回归模型的显著性检验和
参数的显著性检验.
(3)模型检查:检查对模型所做的假设是否成立,包括 ei 是相互独
立的随机变量序列的检查和方差齐性的检查.
(4)预测或控制.
5
对b0 , b1的估计实际上就是在平面直角坐标系中估计一条直线
二回归模型建立的方法——最小二乘估计
使它尽可能地接近回归直线
避免正负偏差项互相抵消,因而要求所有偏差平方和最小,即求
参数 b0 , b1 , 使函数
达到最小.
7
数进行估计的方法,称为最小二乘估计法.
:
poc reg data=数据集名称;
model 因变量集=自变量集; (如model y=x;)
三一元线性回归模型的检验
1)统计假设原假设备择假设
2)平方和与自由度分解
即总平方和分解为误差平方和与回归平方和,同时总自由度也
分解为误差自由度加上回归自由度,即
8
3)F—统计量
若,则拒绝接受
说明用函数来描述因变量 y与自变量 x 的关系是
合适的,即回归模型是显著性的。
4)方差分析表
方差来源
平方和
自由度
均方
F值
回归
残差
总计
SSR
SSE
SST
1
n-2
n-1
MSR= SSR/ 1
MSE= SSE/n-2
F=MSR/MSE
(判定系数)
作为一个相对指标,测度了拟合的回归直线所导致离差平方和占样本的总离差平方和的百分比,,则说明回归方程对样本点的拟合得越好.
9
—检验
t —检验是对回归参数显著性的检验,可以证明以下两个结论:
结论1:在零假设
对于一元线性回归来说
成立的条件下有:
拒绝域为:
结论2:在零假设
成立的条件下有:
拒绝域为:
的F检验值和t—检验中的
t值的概率值 p ,对于一元线性回归模型来说,上述
两个检验是等价的,即都有相同的拒绝域.
10
四一元线性回归模型的残差分析(回归诊断)
称观测值与理论值的差
为标准化残差.
残差图以x为坐标横轴,残差e为坐标纵轴,由所有点(xi