文档介绍:实证分析
1、因子分析法的基本原理
因子分析(Factor Analysis)是利用降维方法进行统计分析的一种多元统计方法,是主成分分析的推广和发展,最初是20世纪初英国的心理学家Charles Spearmen提出,在有关智力测验的统计工作中应用,它通过研究相关矩阵或协方差矩阵的内部依赖关系,在尽可能不损失信息或者少损失信息的情况下,探求样本数据集地基本结构,并将多个变量综合为少数几个潜在的因子,这几个因子可以高度地概括大量样本的信息,几乎能够完全表达出原始变量同因子之间的关系设有P 个原始变量,表示为X ,根据因子分析法的原理,首先假设这些变量已经标准化(均值为0,标准差为1),并假设P 个变量可以由m 个因子表示为线性组合,即用矩阵的形式表示因子分析的数学模型为: , 其中 X 为可实测的 p 维随机向量,它的每个分量都表示一个变或者指标:是公共因子(Common Factors)。矩阵 A称为因子载荷矩阵,向量e 是特殊因子(Unique Factors),表示原始变量中不能由因子解释的部分,均值为零,包括随机误差。 因子分析首先要保证变量 是相关的,如果变量之间不存在相关性,则提取不出公共因子,不适合因子分析。所以在进行因子分析前,必须先检验 是否相关,只有具备较高的相关性,才适合做因子分析,也称适当性检验。KMO和Bartlett球形检验一般用来测试变量的相关性是够适合进行因子分析,,,即相关系数矩阵显著异于单位矩阵,表明将样本采用因子分析是合适的。
2、回归分析的基本原理
回归分析是统计学中常用的基本分析方法,它用于分析事物之间的统计关系。回归分析主要研究变量之间的线性关系,称为线性回归分析,线性回归分析是基于最小二乘法原理产生的古典统计假设下的统计分析方法,用来研究一个或多个自变量与一个因变量之间是否存在某种线性关系。假如引入回归分析的自变量仅有一个,就是简单线性回归分析,如果引入回归分析的自变量有两个以上,那么就是多元线性回归分析,简单线性回归是多元线性回归的特例。多元线性回归的一般数学模型是:
其中,分别为第 i 次观测时自变量的取值,Yi为因变量Y 的观测值,假定 相互独立,且均服从同一正态分布是未知参数。回归分析需要对模型中的未知参数 做出估计,并且对建立的回归方程的参数检验和设定检验,对于通过检验的模型,我们可以用来解释现象并对未来进行预测。
利用最小二乘法总能够计算出线性回归模型中的参数值,但由此确定的线性回归方程不能立即用于对实际问题的分析,还必须对回归方程的线性关系进行各种统计检验,主要是回归系数的显著性检验、回归方程的显著性检验、残差分析等。线性回归方程显著性检验的零假设为,即检验回归参数是否为零,如果为零,则说明被解释变量和解释变量之间不具有线性关系,回归方程没有意义,线性回归方程不能够解释被解释变量和解释变量之间的关系。常用的几种主要的的显著性检验有:F检验法、T 检验法、相关系数检验法。
3、建立实证模型
根据前文假设和上述分析建立我国房地产上市公司盈利能力与资本结构的关系
模型,具体说明如下:
(1)解释变量:本文选择资产负债率(DAR