1 / 23
文档名称:

内蒙呼伦贝尔草原自驾游路书.doc

格式:doc   大小:59KB   页数:23页
下载后只包含 1 个 DOC 格式的文档,没有任何的图纸或源代码,查看文件列表

如果您已付费下载过本站文档,您可以点这里二次下载

分享

预览

内蒙呼伦贝尔草原自驾游路书.doc

上传人:glfsnxh 2017/12/20 文件大小:59 KB

下载得到文件列表

内蒙呼伦贝尔草原自驾游路书.doc

相关文档

文档介绍

文档介绍:当因变量只有两个水平(如生病/健康,成功/失败),多元回归的方法将不再适用。假设我们将因变量编码,1代表生病,0代表健康,我们希望回归能得到一个0到1之间的数字,代表被试生病或健康的概率是多少。但是多元回归会得到一个负值,或者大于1,这很难解释。
logistic回归可以处理这类问题。logistic回归采用logit转换是的预测方程得到0到1之间的值。logistic回归方程预测被试在某个分类中的优势的自然对数。另外,logistic回归方程的回归系数可以用于估计每个自变量的优势比。
逻辑回归(logistic regression)就是被逻辑方差归化后的线性回归。逻辑回归与线性回归不同,它可以处理分类变量。线性回归主要处理连续变量。例如:逻辑回归可以处理预测客户是(0)否(1)流失,这里的0、1就是分类变量;线性回归主要预测连续变量关系,提高广告投放,对产品销售的帮助曲线。
1
假设我们有一个数据,45个观测值,四个变量,包括:
age(年龄,数值型);
vision(视力状况,分类型,1表示好,0表示有问题);
drive(驾车教育,分类型,1表示参加过驾车教育,0表示没有)
accident一个分类型输出变量(去年是否出过事故,1表示出过事故,0表示没有)。我们的目的就是要考察前三个变量与发生事故的关系。
2
data logistic;
input accident age vision drive @@;
datalines;
1 17 1 1 1 4 4 0 0 1 48 1 0 1 55 0 0 1 75 1 1
0 35 0 1 0 4 2 1 1 0 57 0 0 0 28 0 1 0 20 0 1
0 38 1 0 0 4 5 0 1 0 47 1 1 0 52 0 0 0 55 0 1
1 68 1 0 1 1 8 1 0 1 68 0 0 1 48 1 1 1 17 0 0
1 70 1 1 1 7 2 1 0 1 35 0 1 1 19 1 0 1 62 1 0
0 39 1 1 0 4 0 1 1 0 55 0 0 0 68 0 1 0 25 1 0
0 17 0 0 0 4 5 0 1 0 44 0 1 0 67 0 0 0 55 0 1
1 61 1 0 1 1 9 1 0 1 69 0 0 1 23 1 1 1 19 0 0
1 72 1 1 1 7 4 1 0 1 31 0 1 1 16 1 0 1 61 1 0
;
proc logistic data=logistic descending;
model accident=age vision drive; run;
proc logistic data=logistic desending;
model accident=age vision drive /
selection=score ;run;
全模型法
全模型法是指在特定的模型大小范围内,找出指定的最佳模型(具有最小的CP)。通常和BEST连用,如BEST=2,就表示在不同变量个数组成的全模型组中,选择两个最好的模型,显然如果没有best选择,则全部组合数是C(N,2)。度量全模型的统计量是Cp,一般要求Cp<P,这里p是所有变量的个数加1.
Cp=(n-p-1)(MS误差p/-1)+(p+1)----来源网络,不知道是否可靠
全模型法最大的好处是可以计算每一个变量组合下模型的C统计量以及对应的lift值,这样可以做不同模型直接的比较,缺点是计算量大。调用的SAS命令:selection=score best= start= stop= 。其中start=选项表示最少的变量组合数,默认值是1;stop=选项表示最多的变量组合数,默认值是所有变量数
SELECTION=SCORE叫最优子集法
3
4
5
6
data logistic1;
input accident age vision drive @@;
datalines;
. 17 1 1 . 44 0 0 . 48 1 0 . 55 0 0 . 75 1 1
. 35 0 1 . 42 1 1 . 57 0 0 . 28 0 1 . 20 0 1
. 38 1 0 . 45 0 1 . 47 1 1 . 52 0 0 . 55 0 1
. 68 1 0 . 18 1 0 . 68 0 0 . 48 1 1 . 17 0 0
. 70 1 1 . 72 1 0 . 35 0 1 . 19 1 0 . 62 1 0
. 39 1 1 . 40 1 1 . 55 0 0 . 68 0 1 . 25 1 0
. 17 0 0 . 45 0 1 . 44 0