当前位置:文档之家› 第五章经典线性回归模型(II)(高级计量经济学清华大学潘文清)

第五章经典线性回归模型(II)(高级计量经济学清华大学潘文清)


Question: 受约束模型与无约束模型在X1前的参数 估计量相等吗? 记受约束模型(5.1.2)的OLS解为br=(X1’X1)-1X1’Y
则 Y=X1b1+X2b2+e1
且 X1’e1=0, X2’e1=0
于是 br=(X1’X1)-1X1’Y= (X1’X1)-1X1’[X1b1+X2b2+e1] =b1+ (X1’X1)-1X1’X2b2+ (X1’X1)-1X1’e1 =b1+ [(X1’X1)-1X1’X2]b2=b1+Q1b2 其中,Q1= (X1’X1)-1X1’X2 因此,当b2=0或X1与X2正交时,都有br=b1
第五章 经典线性回归模型(II)
Classical Linear Regression Model (II)
§5.1 回归模型的解释与比较 Interpreting and Comparing Regression Models
一、解释线性模型 interpreting the linear model 1、边际效应 对模型 Yi=0+1X1i+…+kXki+i
Question: 如何不遗漏相关变量,同时也不选择无关变量?
假设有如下两模型: Y=X11+X22+1 (5.1.1)
Y=X11+2
(5.1.2)
其中,(X1)nk1=(1,X1,,Xk1), (X2)n(k-k1)=(Xk1+1,,Xk)
1=(0,1,,k1)’, 2=(k1+1,,k)’
Question: 如何测度X1对Y的“净”影响? 部分回归(Partial regression) Step 1: 排除X2的影响。 将Y对X2回归,得“残差”M2Y=[(I-X2(X2’X2)-1X2’]Y 将X1对X2回归,得“残差”M2X1=[(I-X2(X2’X2)1X ’]X 1 M 2Y为排除了 X 的净Y,M X 为排除了X 的净X
这时模型常写为: lnYi=0+1lnX1i+…+klnXki+I 在E(i|lnX1i,lnX2i,,lnXki)=0的假设下,弹性为
[E(Y|X)/E(Y|X)]/[Xj/Xj]E(lnY|lnXj)/lnXj=k
当原始模型为
Yi=0+1X1i+…+kXki+i =j[Xj/(0+1X1+…+kXk)]
显然,(5.1.2)为(5.1.1)的受约束模型。
约束条件为:H0: 2=0
1、部分回归(partial regression) Question: 如何解释j为“当其他变量保持不变,Xj 变化一个单位时Y的平均变化”? 在X1与X2影响Y的同时,可 能存在着X1与X2间的相互影 响。如何测度? X2 将X2中的每一元素Xj (j=k1+1, , k)对X1回归: Y Xj=X1(X1’X1)-1X1’Xj+[Xj-X1(X1’X1)-1X1’Xj] 或 X2=X1(X1’X1)-1X1’X2+[X2-X1(X1’X1)-1X1’X2] X1
时,弹性为: [E(化而变化。 3、相对变化 如果模型为 则: lnYi=0+1X1i+…+kXki+i j=E(lnY|X)/Xj
解释为:Xj变化1个单位时Y的相对变化量。
二、选择解释变量 Select the Set of Regressors
如何解释j为“当其他变量保持不变,Xj变化一个 单位时Y的平均变化”?
本质上: j=E(Y|X)/Xj 即测度的是“边际效应”(marginal effect)
因此,当一个工资模型为 Y=0+1age+2age2+3education+4gender+ 时,只能测度“年龄”变化的边际效应: E(Y|X)/age=1+22age 解释:“当其他变量不变时,年龄变动1个单位时 工资的平均变化量” 2、弹性: 经济学中时常关心对弹性的测度。
2 2 2 1 2
1
Step 2: 估计X1对Y的“净”影响。
将 M2Y对M2X1回归,得X1对Y的“净”影响:
M2Y=M2X1b*+e*
这里,b*=[(M2X1)’(M2X1)]-1(M2X1)’M2Y=X1-1M2Y e*=M2Y-M2X1b*
Proof: b为原无约束回归模型的OLS解,则有 X’Xb=X’Y
2、遗漏相关变量(omitting variables)
Question: What happen if we omit relevant variable?
将无约束模型代入受约束模型(5.1.2)的OLS解 br=(X1’X1)-1X1’Y ,可得
br=(X1’X1)-1X1’(X11+X22+1)
X1’X1b1+X1’X2b2=X1’Y (*) X2’X1b1+X2’X2b2=X2’Y (**) 由(**)得 b2=(X2’X2)-1X2’Y-(X2’X2)-1X2’X1b1 代入(*)且整理得: X1’M2X1b1=X1’M2Y b1=(X1’M2X1)-1X1’M2Y=X1-1M2Y=b* 其中,M2=I-X2(X2’X2)-1X2’ 又 M2Y=M2X1b1+M2X2b2+M2e1 而 M2X2=0, M2e1=e1-X2(X2’X2)-1X2’e1=e1 则 M2Y=M2X1b1+e1 或 e1=M2Y-M2X1b1=e* 或
=1+(X1’X1)-1X1’X22+ (X1’X1)-1X1’1
于是: E(br|X1)=1+Q12+ (X1’X1)-1X1’E(1|X1) =1+Q12 因此,只有当2=0或X1与X2正交时,才有E(br|X1)=1
X2=X1Q1+(I-P1)X2 =explained part + residuals
其中,Q1=(X1’X1)-1X1’X2

X2=X1Q1+(I-P1)X2 =X1Q1+M1X2
=explained part + residuals
M1X2就是排除了X1的其他因素对X2的“净”影响。
X2对X1的回归称为辅助回归(auxiliary regression)
相关主题