参数估计方法的比较与启示
n
n
( n → ∞ ),同理可证σ~2 的方差Var(σ~ 2 ) → 0 ( n → ∞ ),亦即随着样本容量的无限增大,其误差和方
差都趋于 0,所以σ~2 是一致性估计量。
二、累积法
对经济模型结构参数的估计目前常用的方法是最小二乘法和最大似然法。随着社会的发展,最小二
乘法的不足之处日益突出,其系列假设前提也显得更为不科学,而且不易被验证。我国学者曹定爱在前
人研究的基础上,发展了新的参数估计方法——累积法,其基本思想是利用有关数据的累积和及权数直
接估计模型的有关参数。所谓累积和就是对某列数据按照一定的叠加规律进行不同叠加后所得到的结果。
它以寻找累积算子的各阶通式为切人点,创建了累积算子表,创造性地求得累积算子的各阶通式,使得
该新方法的运用简便易行。
以河北省的经济数据为例,全省生产总值与固定资产投资总额之间具有线性关系。
∑ ⎪
⎪σˆ 2 =
1
⎪ n−2
µˆ
2 i
LLLL
(4)
⎩
假定双变量模型 Yi = β1 + β 2 X i + µi 中, Y i 是正态且独立分布的,其均值为 β1 + β2 X i ,其方差为
σ 2 。 Y1,Y2 ,L,Yn 的联合概率密度函数为:
∏ f (Y1,Y2 ,L,Yn β1 + β 2 X i,σ 2 ) =
令 xi = X i − X , yi = Yi − Y 2.ML 方法
∑ ∑ ⎪⎧ Y i= βˆ1 + βˆ2 Xi
∑ ∑ ∑ ⎨
⎪⎩ Y iX i = βˆ1
X i + βˆ2
Xi 2 LLLLLL(2)
∑∑ 得
⎪⎧βˆ2 ⎪
=
xi yi xi2
⎪⎨βˆ1 = Y − βˆ2 X LLLLL(3)
t =1
t =1
∑ 同理,
8
y (1) t
= 4012
t =1
∑8
y (2) t
= 160111;
t =1
其次求行列式 ∆ = 8 × 58510 − 36 ×14459 = −52444 ;
8
8
∑ ∑ x (1) t
=
xt = 14459
t =1
t =1
然后求普通累积法估计
⎧ ⎪⎪
β
0
⎨
=
58510 × 40120 − − 52444
8
∑ ∑8
普通累积法的总误差是 εt
∑ t =1
=
1760.9
, 总误差率是
t =1
εt
8
yt
= 1760.90 = 4.3890% 40120
t =1
同理,普通最小二乘法的总误差是 1677.61,总误差率是 4.1800%。
这两种方法都是比较好的估计,这就证明普通累积法像普通最小二乘法一样,对估计一元方程具有
会低估真实的σ 2 。而随着样本容量的无限增大, E(σ~2 ) → σ 2 ,故σ 2 是渐近无偏的。所以,σ~2 是有偏
{ } 的,但是渐进无偏的。又 ∀δ > 0 有:P σ~2 −σ 2 < δ = 1 ,由于σ~2 有误差 E(σ~2 ) −σ 2 = σ 2 − 2 σ 2 −σ 2 = − 2 σ 2 → 0
布的假定除外)的条件下,最小二乘法 OLS 估计量是最优线性无偏估计量。最大似然法必须对随机误差项
的概率分布作一假定,即其在回归分析中假设遵循正态分布。在基本假定加正态性假定下,ML 方法下的
截距和斜率参数的估计量( β1 、 β 2 )与 OLS 方法下的估计量( β1 、 β 2 )是等同的。但是随机误差项 µi 的
方差分别在 OLS 和 ML 两种方法下的估计量存在差别;而在大样本中,这两个估计量趋于一致。
∑ 证明:ML
方法下,由式(9)随机误差项 µi
的方差σ~ 2
=
1 n
µˆ
2 i
E(σ~ 2 )
=
1 n
E(µˆi2 )
=
n
− n
2σ
2
=σ
2
−
2σ
2
<σ
2 ,由此可知,在小样本中σ~2 是有偏估计量且偏小,这样就
⎡1 1188⎤
⎢⎢1 ⎢1
1470 ⎥⎥ 1651⎥
,
X
=
⎢⎢1 ⎢1
1798⎥⎥ 1847 ⎥
⎢
⎥
⎢1 1942⎥
⎢⎢1 2047⎥⎥
⎢⎣1 2516⎥⎦
(X
T
X
) −1
=
1 8810015
⎡27234087
⎢ ⎣
− 14459
− 14459⎤
8
⎥ ⎦
( ) X
TY
=
⎡ 40120 ⎤ ⎢⎣75781516⎥⎦
——————————————
收稿日期:2005-10-19
作者简介:徐勇(1981—),河北邯郸人,河北大学研究生学院 04 级统计系研究生。 15
邢台职业技术学院学报
2006 年 第 1 期
lnLF =
− n lnσ 2 2
−
n ln2π 2
−
1 ∑ (Yi
2
− β1 − β2 X i )2 σ2
,根据微积分原理,lnLF达到最大的充要条件是其对 β1 、β2
、
σ 2 的偏导数为 0。
⎧
⎪
∑ ∑ ⎪⎪ ∑ ∑ ∑ ⎨
Yi = nβ~1 + β~2 X i Yi X i = β~1 X i + β~2
X i 2 LLLLLLLL(6)
⎪
∑ ⎪−
n
+
∑ ⎪⎩ 2σ 2 2
1 σ~ 4
(Yi − β~1 − β~2 X i )2 = 0LLLL(7)
首先求各阶与各项的累积和( n = 8 ):
8
∑ (1) = 1 + 1 + 1 + 1 + 1 + 1 + 1 + 1 = 8
t =1
8
∑ (2) = 8 + 7 + 6 + 5 + 4 + 3 + 2 + 1 = 36
t =1
8
8
∑ ∑ x (2) t
=
8x1 + 7x2 + L + 1x8 = 58510 ;
yˆ t
3 177.24 4 014.78 4 552.35 4 988.94 5 134.47 5 416.62 5 728.47 7 121.40
ε t
275.76 -61.78 -296.35 -419.94 -45.47 161.38 394.53 -22.4
εt yt
0.079861 -0.01563 -0.06963 -0.09191 -0.00893 0.028932 0.064434 -0.00316
yˆt = −617.35 + 3.12xˆt 。这样误差项ε t = yt − yˆt ,且误差率ε1/y1 如下表:
表 2 普通累积法误差分析
年份 1996
yˆ t
3 089.21
ε t
363.79
εt yt
0.105355
1997
3 969.05
-16.05
-0.00406
1998
4 533.77
n i=1
f (Yi β1 + β 2 X i,σ 2 ) = σn
1
−1
e ∑ 记似然函数为 2σ 2
n i =1
(Yi −β1 −β2 X i
)
2π n
LF (β1、β2、σ 2 ) = σ n
π 1
−1
∑ 2σ
2
n i =1
(Yi
−β1 −β2 X i
)
e LLL(5) n
2
最大似然原理认为要使观测到给定的 Y i 的概率尽可能大,则必须使似然函数达到最大值。由于对数 函 数 是 单 调 函 数 , 故 ㏑ LF 和 LF 在 同 一 点 上 达 到 最 大 , 对 式 (5) 作 对 数 变 换 得 到 :
然法,是不同于 OLS 的另一种回归模型参数估计方法,它是从最大或然原理出发的其他估计方法的基础。
由此可见,这两种方法所依据的数学原理不同。
(一)OLS 与 ML 方法的数学原理的比较
1.OLS 方法
对双变量总体回归函数Yi = β1 + β2 Xi + µi LLLL(1) 通过样本回归函数去估计Y i= βˆ1 + βˆ2 X i + µˆi =Yˆ i+µˆi
经比较可得式(6)正是最小二乘原理的正规方程组(2),故 ML 估计量 β~i 与 OLS 估计量 βˆi 等同,这是
因为对数似然函数的最大化就是其最后一项,即
⎡ ⎢ ⎣
1 2
∑
(Yi
−
β1 − β σ2
2
X
i
)
2
⎤ ⎥ ⎦
的最小化。解上述方程组得:
∑ ⎪⎧β~2 = ∑ ⎪
xi yi x2
i
⎪⎨β~1 = Y − β~2 X LL(8)
中图分类号:O221.8
文献标识码:A
文章编号:1008—6129(2006)01—0015
—04
一、普通最小二乘法与最大似然法的比较差异
普通最小二乘法(Ordinary Least Squares,简称 OLS)是应用最多的回归模型参数估计方法,它是
从最小二乘原理出发的其他估计方法的基础。最大似然法(Maximum Likelihood,简称 ML)也称最大或