第5章、违背基本假设的问题:多重共线性、异方差和自相关回顾并再次记住最小二乘法(LS)的三个基本假设:1.y=Xβ+ε2.Rank(X)=K3.ε|X~N(0,σ2I)1 / 51§1、多重共线性(multicollinearity)1、含义及后果1)完全的多重共线性如果存在完全的多重共线性(perfect multicollinearity),即在X中存在不完全为0的a i,使得a1x1+…+a K x K=0即X的列向量之间存在线性相关。
因此,有Rank(X)<K,从而|X’X|=0,即b=(X’X)-1X’y不存在,OLS失效。
也即违背了基本假设2。
例子:C=β1+β2nonlabor income + β3salary +β4income + ε2 / 513 / 514 / 512)近似共线性 常见为近似共线性,即a 1x 1+…+a K x K ≈0则有|X’X|≈0,那么(X’X)-1对角线元素较大。
由于21|[,(')]b X N X X βσ- , 21|[,(')]k k kk b X N X X βσ- ,所以b k 的方差将较大。
例子:Longley 是著名例子。
5 / 516 / 512、检验方法1)VIF 法(方差膨胀因子法,variance inflation factor )第j 个解释变量的VIF 定义为21VIF 1j jR =- 此处2j R 是第j 个解释变量对其他解释变量进行回归的确定系数。
若2j R 接近于1,那么VIF 数值将较大,说明第j 个解释变量与其他解释变量之间存在线性关系。
从而,可以用VIF 来度量多重共线性的严重程度。
当2j R 大于0.9,也就是VIF 大于10时,认为自变量之间存在比较严重的多重共线性。
K个解释变量,就有K个VIF。
可以计算K个VIF的平均值。
若大于10,认为存在比较严重的多重共线性。
VIF方法直观,但是Eviews不能直接计算VIF的数值。
需要逐个进行回归,较为麻烦。
7 / 512)相关系数矩阵例子:对于longley数据。
在Eviews中,quick/group statistics/correlations,输入te year gnpd gnp arm,得到TE YEAR GNPD GNP ARM TE 1.000000 0.971329 0.970899 0.983552 0.457307 YEAR 0.971329 1.000000 0.991149 0.995273 0.417245 GNPD 0.970899 0.991149 1.000000 0.991589 0.464744 GNP 0.983552 0.995273 0.991589 1.000000 0.446437 ARM 0.457307 0.417245 0.464744 0.446437 1.0000008 / 51相关系数矩阵的第一列给出了被解释变量与每一个解释变量之间的相关系数;度量了每一个解释变量对被解释变量的个别影响。
除ARM之外,解释变量与被解释变量之间的相关系数都很大。
但是,从剩下的相关系数矩阵可以看到,变量之间的相关系数也很大。
表明变量之间存在严重的多重共线性。
9 / 513)条件数(condition number)首先计算X’X的最大和最小特征根,然后计算如下条件数若大于20,则认为存在多重共线性。
10 / 513、处理方法1)剔除法(推荐此方法)方法:设法找出引起多重共线性的解释变量,并将之剔除在回归方程之外。
准则1:逐个引入解释变量,根据R2的变化决定是否引入新的解释变量。
如果R2变化显著,那么应该引入,反之不引入。
准则2:剔除VIF最大的解释变量和不显著的解释变量。
请试着计算每个解释变量的VIF值。
11 / 5112 / 512)岭回归(ridge regression estimator )回忆对于多元线性回归方程y X βε=+,系数β的LS 估计是1(')'b X X X y -=岭回归估计就是计算1(')'r b X X rD X y -=+此处D 是一个对角矩阵,定义为('),0,ii ii X X i j D i j=⎧=⎨≠⎩ 具体操作:一般选取r 从0.01开始,逐步增加,每次都计算r b ,一直到b稳定不变为止。
r此方法的优点:在matlab环境下,使用矩阵运算非常容易计算。
缺点:一方面,Eviews不带此功能;另外一方面,缺乏对估计结果的解释的直观含义(b是什么东西?)。
r13 / 5114 / 513)主成分方法(principal components )首先,计算对称矩阵X’X 的特征根和特征向量,(')X X C C =Λ此处12[,,...,]K C c c c =是特征向量矩阵1000000K λλ⎛⎫ ⎪Λ= ⎪ ⎪⎝⎭ 是特征根矩阵,其中特征根从大到小排列。
我们关心最大的前面L 个。
其次,计算Z XC =,即15 / 51,1,...,k k z Xc k L ==是新的数据列向量,作为新的解释变量。
最后,将y 对Z 进行回归,得到1(')'b Z Z Z y -=此方法并不难计算,但是问题仍然是很难解释估计结果。
16 / 51§2、异方差(heteroscedasticity )1、含义及影响y=X β+ε,var(εi )≠var(εj ), i ≠j ,E(ε)=0,或者记为212200['|]0000n E X σεεσσ⎛⎫ ⎪=Ω= ⎪ ⎪⎝⎭即违背假设3。
用LS 估计,所得b 是无偏的,但不是有效的。
111(')'(')'()(')'b X X X y X X X X X X X βεβε---==+=+17 / 51由于E(ε)=0,所以有E(b )=β。
即满足无偏性。
但是,b 的方差为1111121var(|)[()()'][(')''(')|] (')'['|](') (')'()(')b X E b b E X X X X X X X X X X E X X X X X X X X X X ββεεεεσ------=--===Ω其中212200['|]0000n E X σεεσσ⎛⎫ ⎪=Ω= ⎪ ⎪⎝⎭。
18 / 51 2、检验(White 检验)举例说明。
若回归方程为y=β0+β1x 1 + β2x 2 + ε使用残差和解释变量,建立如下辅助回归方程222011223142512e x x x x x x αααααα=+++++ (*)构造如下原假设H0:残差不存在异方差性直观上,若H0为真,那么会有什么?可以证明,若H0为真,则22~()nR m其中n为样本个数,R2为方程(*)的确定系数,m为除常数项外的回归系数的个数。
Eviews命令:view/residual tests/white heteroscedasticitystep1:双击数据文件production_function.wflstep2:输入ls log(x) c log(l1) log(k1),进行回归19 / 51step3:view/residual tests/white heteroscedasticity(no cross term)(当然也要试一下选择white heteroscedasticity(cross term)的输出结果),有White Heteroskedasticity Test:Obs*R-squared 5.090339 Probability 0.278153Test Equation:Dependent Variable: RESID^2Method: Least SquaresDate: 11/03/04 Time: 19:33Sample: 1929 1967Included observations: 39Variable Coefficient Std. Error t-Statistic Prob.20 / 51LOG(L1) 0.068532 0.215341 0.318251 0.7522(LOG(L1))^2 -0.005638 0.020636 -0.273236 0.7863LOG(K1) -0.024077 0.062504 -0.385210 0.7025(LOG(K1))^2 0.001880 0.006457 0.291181 0.7727 Adjusted R-squared 0.028230 S.D. dependent var 0.002170 S.E. of regression 0.002139 Akaike info criterion -9.337819 Sum squared resid 0.000156 Schwarz criterion -9.124542 Log likelihood 187.0875 F-statistic 1.275975 Durbin-Watson stat 1.899724 Prob(F-statistic) 0.298609再试一下具有交叉项的情形。
得到如下输出结果:21 / 51White Heteroskedasticity Test:Obs*R-squared 5.331424 Probability 0.376785 Test Equation:Dependent Variable: RESID^2Method: Least SquaresDate: 11/03/04 Time: 19:34Sample: 1929 1967Included observations: 39Variable Coefficient Std. Error t-Statistic Prob.LOG(L1) -0.054201 0.333444 -0.162549 0.8719 (LOG(L1))^2 0.025440 0.067254 0.378266 0.7077 (LOG(L1))*(LOG(K1)) -0.044198 0.090923 -0.486105 0.6301 LOG(K1) 0.075537 0.214453 0.352231 0.7269 (LOG(K1))^2 0.016259 0.030292 0.536741 0.5950R-squared 0.136703 Mean dependent var 0.001112 Adjusted R-squared 0.005901 S.D. dependent var 0.002170 S.E. of regression 0.002163 Akaike info criterion -9.293672 Sum squared resid 0.000154 Schwarz criterion -9.037740 Log likelihood 187.2266 F-statistic 1.045111 Durbin-Watson stat 1.997638 Prob(F-statistic) 0.40800423 / 513、处理方法两种方法:WLS:适用于异方差形式已知情形HAC:适用于异方差形式未知情形1)WLS方法(weighted least square,加权最小二乘法)WLS方法是GLS(generalized ls,广义最小二乘法)的特例。