文档介绍:回归分析预测法
从本章起将讨论定量预测技术
第三章的基本思路来源于数学分析中数理统计的回归分析方法,将因素之间的规律(利用已知统计资料)设为按一定数学模型变化的运动轨迹,并假定:
未来的变化仍然是在已知的条件下进行,运动轨迹将不会发生畸变。
管理资源吧(),提供海量管理资料免费下载!
第一节回归分析的基本概念
:
20世纪初,英统计学家 研究父子身高的遗传统计,高个子父母下一代比父亲更高的概率小于比他矮的概率,而矮个子父亲下一代比父亲高的概率大于比他矮的概率;且这两种高度父辈的后代,高度有向两种父辈平均身高靠拢的趋势,这种现象称为“回归”——是一种自然界现象规律的提取。
研究变量之间的互相关系,把其中一些因素作为控制的变量,而把另一些随机变量作为因变量,利用适当的数学模型尽可能趋向于趋势变化的均值描述它们的关系的分析,称为回归分析。
即假定 y 与 x 相关,应有 y = f ( x )
若 x1,x2, ‥‥‥ xn个变量影响y,应有
y = f (x1,x2, ‥‥‥xn)
显然,有一些问题必须解决
①因素分析
现代社会中,任何一件事物与多个因素相关,如何选取主要因素,忽略次要因素,使建立的数学模型不因变量太多而复杂,又能较好的抓住主要矛盾。
解决方法是求相关系数R
②运动轨迹的模型
主要利用已知统计数据在图上打点进行观察分析,寻求一条最佳线路。采用最小二乘法,即在满足该条线路的模拟值与真值总平方误差∑ei2为最小的条件下,来求出模拟数学模型各参数。(为Gauss--Markov最佳线性与无偏估计量)
③相关性检验
目的是鉴别所求出的模型是否可靠,
方法:利用相关性检验准则进行检验
④精确度:即讨论在一定置信度条件下的置信区间
⑤预测:前面的问题已解决,数学模型已经建立且可靠, 精度问题也已解决,利用延续性原则代入需预测的数据,并求出结果。
线性线性
一元多元
非线性非线性
第二节一元线性回归预测
假定需预测的目标为 y,与之对应的因素 x,随机抽样,子样数为 n ,通过图上打点作粗略估计已知的一组对应数据,初步定为线性关系,同时再考虑到随机因素,应有:
yi = a + b xi + ei i = 1,2,……n (1)
不考虑随机因素,应有:
yi = a + b xi i = 1,2,n (2)
代(2)入(1),求得随机项
ei = yi – yi = yi –( a + bxi ) (3) ei 称为残差
∧
∧
这表示,真值与模拟直线y = a + bx之间存在实际误差 ei,累积平方误差为 Q = ∑ei 2,称残差平方和,又称剩余平方和。
反之,我们已知的是实际数据(xi,yi),从可能的无穷条模拟直线中选取某一条直线,使之模拟得最好,标准为Q = ∑e2i最小。
由(3) Q(a,b)= ∑ei2 = ∑(yi –a--bxi)2
求极值点,应有:[Q(a,b)]’a = 0
及[Q(a,b)]’b = 0
得出∑(yi—a—bxi)= 0
∑(yi—a—bxi)xi = 0
求出a,b
a =(1/n) ∑yi -
b = (∑xiyi—nxy)/(∑xi2—nx2)
记∑(xi—x)2= lxx……x的离差平方和
∑(xi—x)(yi--y) = lxy……x,y离差乘积和
则b可简记为
b = lxy/lxx , a = y–(lxy/lxx) x
a,b称回归系数
y = a + bx 称线性回归方程。
这种方法称为最小二乘法,又叫最小平方法OLS(Ordinary Least Square)