当前位置:文档之家› 计量经济学复习资料

计量经济学复习资料

计量经济学复习资料1、费里希(R.Frish)是经济计量学的主要开拓者和奠基人。

2、经济计量学与数理经济学和树立统计学的区别的关键之点是“经济变量关系的随机性特征”。

3、经济计量学识以数理经济学和树立统计学为理论基础和方法论基础的交叉科学。

它以客观经济系统中具有随机性特征的经济关系为研究对象,用数学模型方法描述具体的经济变量关系,为经济计量分析工作提供专门的指导理论和分析方法。

4、时序数据即时间序列数据。

时间序列数据是同一统计指标按时间顺序记录的数据列。

5、横截面数据是在同一时间,不同统计单位的相同统计指标组成的数据列。

6、对于一个独立的经济模型来说,变量可以分为内生变量和外生变量。

内生变量被认为是具有一定概率分布的随机变量,它们的数值是由模型自身决定的;外生变量被认为是非随机变量,它们的数值是在模型之外决定的。

7、对于模型中的一个方程来说,等号左边的变量称为被解释变量,等号右边被称为解释变量。

在模型中一个方程的被解释变量可以是其它方程的解释变量。

被解释变量一定是模型的内生变量,而解释变量既包括外生变量,也包括一部分内生变量。

8、滞后变量与前定变量。

有时模型的设计者还使用内生变量的前期值作解释变量,在计量经济学中将这样的变量程为滞后变量。

滞后变量显然在求解模型之前是已知量,因此通常将外生变量与滞后变量合称为前定变量。

9、控制变量与政策变量。

由于控制论的思想不断渗入经济计量学,使某些经济计量模型具有政策控制的特点,因此在经济计量模型中又出现了控制变量、政策变量等名词。

政策变量或控制变量一般在模型中表现为外生变量,但有时也表现为内生变量。

10、经济参数分为:外生参数和内生参数。

外生参数一般是指依据经济法规人为确定的参数,如折旧率、税率、利息率等。

内生参数是依据样本观测值,运用统计方法估计得到的参数。

如何选择估计参数的方法和改进估计参数的方法,这是理论经济计量学的基本任务。

11、用数学模型描述经济系统应当遵循以下两条基本原则:第一、以理论分析作先导;第二模型规模大小要适度。

12、联立方程模型中的方程一般划分为:随机方程和非随机方程。

随机方程是根据经济机能或经济行为构造的经济函数关系式。

在随机方程中,被解释变量被认为是服从某种概率分布的随机变量,且假设解释变量是非随机变量。

非随机方程是根据经济学理论和政策、法规的规定而构造的反应映某些经济变量关系得恒等式。

13、所谓经济计量分析工作是指依据经济理论分析,运用经济计量模型方法,研究现实经济系统的结构、水平、提供经济预测情报和评价经济政策等的经济研究和分析工作。

14、经济计量分析工作的程序包括四部分:1、设定模型;2、估计参数;3、检验模型;4、应用模型。

15、在社会经济现象中,变量之间的关系可分为两类:函数关系和相关关系。

函数关系是指如果给定解释变量X的值,被解释变量Y 的值就唯一地确定了,Y与X的关系就是函数关系,即Y=f(X)。

相关关系是指如果给定了解释变量X的值,被解释变量Y的值不是唯一确定,Y与X的关系就是相关关系。

16、回归分析与相关关系的联系与区别:回归分析研究一个变量(被解释变量)对于一个或多个其它变量(解释变量)的依存关系,其目的在于根据解释变量的数值来估计或预测被解释变量的总体均值。

相关分析研究变量之间相互关联的程度,用相关系数来表示,相关系数又分为简单相关系数和复相关系数;前者表示两个变量之间的相互关联程度,后者描述三个或三个以上变量之间的相关程度。

回归分析和相关分析二者是有联系的,它们都是研究相关关系的方法。

但二者之间也有区别:相关分析关心的是变量之间的相关程度,但并不能给出变量之间的因果关系;而回归分析则要通过建立回归方程来估计解释变量与被解释变量之间的因果关系。

此外,在回归分析中,定义被解释变量为随机变量,解释变量为非随机变量;而在相关分析中,把所考察的变量都看作是随机变量。

17、总体回归模型是根据总体的全部资料建立的回归模型,又称为理论模型。

样本回归模型是根据样本资料建立的回归模型。

在绝大多数情形下,得到总体的全部资料是不可能的。

18、估计回归参数的方法主要有最小二乘法,极大似然估计法和矩估计法,其中最简单的是普通最小二乘法。

这种方法要求回归模型满足以下假设:1.随机误差μi的均值为零,即:E(μi)=0;2.所有随机误差μi都有相同的方差,即:Var(μi)=E(μi—E(μi))2=E(μi2)=σ2;3.任意两个随机误差μi和μj(i≠j)互不相关,也即μi和μj的协方差为零:E(μi—E(μj))(μi—E(μj))=E(μiμj)=04.解释变量X是确定变量,与随机误差μi不相关。

5.对回归参数进行统计检验时,还须假定μi服从正态分布。

满足上述假定的线性回归模型称为经典线性回归模型。

19、求解一元线性回归模型参数的应用公式:nΣXY—ΣXΣY ΣYΣX2—ΣXΣXY——β1=——————————β0=————————————=Y—β1XnΣX2—(ΣX)2 nΣX2—(ΣX)2其中X、Y均为样本值。

20、利用普通最小二乘法求的样本回归直线具有以下特点:(1)样本回归直线必然通过点X的均值和点Y的均值;(2)预测值Y的平均值与实际值Y的平均值相等;(3)残差ei均值为零;(4)残差ei与解释变量X不相关。

21、普通最小乘估计量的特性:(1)无偏性:E(β0)= β0,E(β1)= β1由不同样本得到的β0和β1可能大于或小于总体的β1和β0,但平均起来等于总体参数。

(2)线性特性:即估计量β0和β1均为样本观测值Y的线性组合。

(3)有效性:即β1和β0的方差最小。

22、简单线性回归模型的检验(1)对估计值的直观判断:1.对回归系数β1的符号判断;2.对β1的大小判断。

(2)拟合优度的检验:拟合优度是指样本回归直线与样本观测值之间的拟合程度,通常用判定系数r2表示。

检验拟合优度的目的,是了解释变量X对被解释变量Y的解释程度。

X对Y的解释能力越强,残差ei的绝对值就越小,从而样本观测值离回归直线的距离越近。

判定系数计算公式:ESS Σ(Y(预测值)—Y(均值))β12(回归系数)Σ(X(样本值)—X(均值))r2=———=——————————————=————————————————————TSS Σ(Y(样本值)—Y(均值))Σ(Y(样本值)—Y(均值))判定系数r2的两个重要性质:1.它是一个非负的量。

2.它是在0与1之间变化的量。

当r2=1时,所有的观测值都落在样本回归直线上,是完全拟合;当r2=0时,解释变量与被解释变量之间没有关系。

23、相关系数是衡量变量之间线性相关的指标。

用r表示,它具有下列性质:(1)它是可正可负的数(2)它是在-1与+1之间变化的量。

(3)它具有对称性,即X与Y之间的相关系数与Y与X值将的相关系数相同。

(4)如果X和Y在统计上独立,则相关系数为零。

当r=0,并不说明两个变量之间一定独立。

这是因为,r仅适用于变量之间的线性关系,而变量之间可能存在非线性关系。

Σ(X(样本值)—X(均值))(Y(样本值)—Y(均值))r=—————————————————————————————[Σ(X(样本值)—X(均值))2Σ(Y(样本值)—Y(均值))2]1/2r=±[r2]1/2并且r的符号与回归系数β1的符号相同。

相关系数与判定系数在概念上仍有明显区别:前者建立在相关分析的理论基础上,研究的是两个随机变量之间的线性相关的关系,不仅反映变量之间的因果关系;后者建立在回归分析的理论基础上,研究的是一个普通变量(X)对另一个随机变量的定量解释程度。

24、相关系数的检验(t检验)一般说来,相关系数可以反映X与Y之间的线性相关程度。

r的绝对值越接近于1,X与Y之间的线性关系就越密切。

但相关系数通常是根据样本数据得到的,因而带有一定的随机性,且样本越小其随机型就越大。

因此,我们有必要依据样本相关系数r对总体相关系数ρ进行统计检验。

可构造t统计量:r(n—2)1/2t=——————其中r为相关系数,n为样本数,服从(n-2)的t分布;查t分布得(1—r2) 1/2 相应的临界值tα/2如果有:|t|≥tα/2则认为X与Y 之间存在显著的线性相关关系。

反之若有|t|≤tα/2则认为X与Y之间不存在显著的线性相关关系。

25、在一元线性回归模型中Y=β0+β1X+μi,β1代表解释变量X对被解释变量Y的线性影响。

如果X对Y的影响是显著的,则有β1≠0;若X对Y的影响不显著,则有β1=0。

由于真实参数β1是未知的,我们只能依据样本估计值对β1进行统计检验。

26、多重判定系数R2:为了说明二元回归方程对样本观测值拟合的优劣,需要定义多重判定系数。

多重判定系数与简单判定系数r2一样,R2也定义为有解释的变差(ESS)与总变差(TSS)之比。

显然,R2也是一个在0与1 之间的数。

R2的值越接近1,拟合优度就越高。

R2=1时,RSS=0,表明被解释变量Y的变化完全由解释变量X1和X2决定;当R2=0,表明Y的变化与X1,X2无任何关系。

同时对于两个被解释变量相同而解释变量个数不同的模型,包含解释变量多的模型就会有较高的R2值。

27、复相关系数R表示所有解释变量与Y的线性相关程度。

在二元回归分析中,复相关系数R表示的就是解释变量X1 X2与被解释变量Y之间的线性相关程度。

28、对总体回归模型的显著性检验(F检验)多元线性回归模型的总体显著性检验是检验所有解释变量对Y的共同影响是否显著。

构造F统计量:ESS/(k-1) R2/(k—1)F=——————=———————————其中k为模型中的参数个数,n为样本个数RSS/(n—k) (1—R2)/(n—k)对于给定的显著性水平,自由度为k—1和n—k,查F分布表可得临界值Fα(k-1,n-k),如果有F≥Fα(k-1,n-k)则认为X1和X2对Y的线性影响是显著的;反之,如果有F≤Fα(k-1,n-k),则总体线性回归模型不能成立。

29、方差非齐性:经典线性回归分析的一个基本假定就是回归模型中的随机误差项的方差为常数,称为方差齐性假定或同方差性假定。

如果回归模型中的随机误差项的方差不是常数,则称随机误差项的方差非齐性或为异方差。

异方差主要存在于横截面数据中。

存在异方差性将导致的后果:1.参数的普通最小二乘估计虽然是无偏的,但却是非有效的。

2.参数估计量的方差估计量是有偏的,这将导致参数的假设检验也是非有效的。

30、方差非齐性的检验:1.样本分段比较法,这种方法由戈德菲尔德(S.M.Goldfeld)和匡特(R.E.Quandt)于1972年提出的,又称为戈德菲尔德-匡特检验。

2.残差回归检验法,这种方法是用模型普通最小二乘估计的残差或其绝对值与平方作为被解释变量,建立各种回归方程,然后通过检验回归系数是否为0,来判断模型的随机误差项是否有某种变动规律,以确定异方差是否存在。

相关主题