当前位置:文档之家› 第三章-一元线性回归模型

第三章-一元线性回归模型

Econometrics第三章一元线性回归模型(教材第二、三章)第三章一元线性回归模型3.1 回归的涵义3.2 随机扰动项的来源3.3 参数的最小二乘估计3.4 参数估计的性质3.5 显著性检验3.6 拟合优度3.7 预测学习要点回归模型的涵义,参数的OLS估计及其性质,显著性检验3.1 回归的涵义回归分析(regression analysis )f 用于研究一个变量(称为被解释变量或应变量)与另一个或多个变量(称为解释变量或自变量)之间的关系。

f Y 代表被解释变量,X 代表解释变量;解释变量有多个时,用X1,X 2,X 3等表示。

f 例:商品的需求量与该商品价格、消费者收入以及其他竞争性商品价格之间的关系。

总体回归函数(f 例:学生的家庭收入与数学分数有怎样的关系?3.1 回归的涵义3.1 回归的涵义总体回归函数(population regression function,PRF)f根据上面数据做散点图3.1 回归的涵义总体回归函数(f 上图中,圆圈点称为条件均值;条件均值的连线称为总体回归线。

3.1 回归的涵义样本回归函数(sample regression function, SRF )f 实际中往往无法获得整个总体的数据,怎么估计总体回归函数?即如何求参数B 1、B 2?f 通常,我们仅仅有来自总体的一个样本。

f 我们的任务就是根据样本信息估计总体回归函数。

f 怎么实现?3.1 回归的涵义样本回归函数(sample regression function, SRF )f 表2-2、2-3的数据都是从表2-1中随机抽取得到的。

3.1 回归的涵义样本回归函数(sample regression function, SRF)f通过散点得到两条“拟合”样本数据的样本回归线。

3.1 回归的涵义样本回归函数(f 可用样本回归函数(3.1 回归的涵义样本回归函数(sample regression function, SRF)f回归分析:根据样本回归函数估计总体回归函数。

3.1 回归的涵义“线性”回归的特殊含义f 对“线性”有两种解释:变量线性和参数线性。

变量线性:例如前面的总体(或样本)回归函数;下3.2 随机扰动项的来源f 总体回归函数说明在给定的家庭收入下,美国学生平均的数学分数。

f 但对于某一个学生,他的数学分数可能与该平均水平有偏差。

f 可以解释为,个人数学分数等于这一组的平均值加上或减去某个值。

用数学公式表示为:其中,表示随机扰动项,简称扰动项。

扰动项是一个随机变量,通常用概率分布来描述。

12i i iY B B X u =++i u3.2 随机扰动项的来源f 对于回归模型f 称为被解释变量(explained variable )也称应变量或因变量(dependent variable )称为解释变量(explanatory variable )也称自变量(independent variable )称为参数(parameter )称为随机扰动项(random error term )12i i iY B B X u =++i u i Y i X 12,B B3.2 随机扰动项的来源f 上式如何解释?可以认为,在给定家庭收入水平3.2 随机扰动项的来源f3.2 随机扰动项的来源f性质1:扰动项代表了未纳入模型变量的影响。

例如个人健康状况、居住区域等等。

包括了决定数学分数的所有变量,其内在随机性也不可避免,这是做任何努力都无法解释的。

等于真实值。

f性质4:“奥卡姆剃刀原则”——即描述应该尽可能简单,只要不遗漏重要的信息,此时可以把影响Y的次要因素归入随机扰动项。

3.3 参数的最小二乘估计参数估计:普通最小二乘法(OLS )f 根据样本回归函数估计总体回归函数,要回答两个问题:如何估计PRF ?如何验证估计的PRF 是真实的PRF 的一个“好”的估计值?f 这里先回答第一个问题。

f 回归分析中使用最广泛的是普通最小二乘法(method of ordinary least squares, OLS )3.3 参数的最小二乘估计参数估计:普通最小二乘法(OLS )f 最小二乘原理:由于不能直接观察PRF :所以用SRF来估计它,因而f 最好的估计方法是,选择使得残差尽可能小。

12i i iY B B X u =++12i i i Y b b X e =++12ˆ i i ii ii ie Y Y Y Y Y b b X =−=−=−−实际的估计的12b b 、i e3.3 参数的最小二乘估计参数估计:普通最小二乘法(f 普通最小二乘法就是要选择参数方和3.3 参数的最小二乘估计参数估计:普通最小二乘法(f 如何确定根据微积分,当3.3 参数的最小二乘估计参数估计:普通最小二乘法(f 以上联立方程组称为正规方程组(求解3.3 参数的最小二乘估计参数估计:普通最小二乘法(f OLS例子:数学S.A.T分数3.3 参数的最小二乘估计例子:数学S.A.T 分数f 根据公式可以得到回归结果:ˆ432.41380.0013i iY X =+3.3 参数的最小二乘估计例子:数学S.A.T 分数f 根据公式可以得到回归结果:f对估计结果的解释:斜率系数0.0013表示在其他条件保持不变的情况下,家庭年收入每增加1美元,数学S.A.T.分数平均提高0.0013分截距432.4138表示,当家庭年收入为0时,数学平均分大约为432.4138。

(这样的解释没有什么经济意义)对截距最好的解释是,它代表了回归模型中所有省略变量对Y 的平均影响。

ˆ432.41380.0013i i Y X =+3.3 参数的最小二乘估计例子:受教育年限与平均小时工资f 预期平均工资随受教育年限的增加而增加f 回归结果:ˆ0.01440.7241i iY X =−+3.3 参数的最小二乘估计例子:股票价格与利率f经济理论表明,股票价格和利率之间存在反向关系。

3.3 参数的最小二乘估计例子:股票价格与利率f 看起来两个变量之间的关系不是线性的(即不是直线),因此,假设实际关系如下:3.4 参数估计的性质古典线性回归模型(CLRM)的假定f下面我们要回答“怎样判别它是真实PRF的一个好的f只有假定了随机扰动项u的生成过程,才能判定SRF对PRF拟合得是好是坏。

OLS估计量的推导与随机扰动项的生成过程无关;但根据SRF进行假设检验时,就必须对随机扰动项的生成做f下面仍然沿用一元线性回归模型来讨论。

3.4 参数估计的性质古典线性回归模型(CLRM )的假定f 假定1. 回归模型是参数线性的,但不一定是变量线性的。

回归模型形式如下(可扩展到多个解释变量):f 假定2. 解释变量与随机扰动项不相关。

如果X是非随机的,该假定自动满足;即使X 是随机的,如果样本容量足够大,也不会对分析产生严重影响。

12i i iY B B X u =++X u古典线性回归模型(f假定()3.4 参数估计的性质古典线性回归模型(CLRM )的假定f 假定4. 同方差(homoscedastic ),即i u ()2var i u σ=3.4 参数估计的性质古典线性回归模型(CLRM )的假定f 假定5. 无自相关(no autocorrelation ),即两个扰动项之间不相关:()cov ,0,i j u u i j=≠3.4 参数估计的性质古典线性回归模型(CLRM)的假定差或设定误差。

f为什么需要以上6个假定?这些假定现实吗?如果不满足这些假定,情况又会怎样?如何得知是否满足所f这些重要的问题暂时没有答案,事实上,教材“第二部分”都是围绕“如果假定不满足时会怎样”而展开的。

3.4 参数估计的性质OLS f 有了上述假定后可以计算出估计量的方差和标准差。

OLS3.4 参数估计的性质OLS f 根据下式估计OLS3.4 参数估计的性质估计结果的报告f 估计的数学SAT函数如下(括号内数字为标准差):OLS 估计量的性质f 可以概括为高斯-马尔柯夫定理(Gauss-Markov theorem ):如果满足古典线性回归模型的基本假定,则在所有线性估计两种,OLS 估计量具有最小方差性,即OLS 估计是最优线性无偏估计量(BLUE )。

f 具体见教材PP46。

()()ˆ432.41380.001316.9061 0.000245i iY X se =+=3.5 显著性检验OLS 估计量的抽样分布或概率分布f 知道如何计算OLS 估计量及其标准差仍然不够,必须求出其抽样分布才能进行假设检验。

f 为了推导抽样分布,再增加一条假定。

f 假定7.在总体回归函数中,扰动项服从均值为0,方差为的正态分布。

即f 为什么可以作这样一个假定?12i i i Y B B Xu =++i u 2σ()20,i u N σ3.5 显著性检验OLS 估计量的抽样分布或概率分布ff 可以证明,是的线性函数,根据“正态变量的线性函数仍服从正态分布”,得知服从正态分布。

f 中心极限定理:随着样本量的增加,独立同分布随机变量构造的统计量近似服从正态分布。

i u ()2120,i u N b b σ⇒ 、的概率分布?12b b 、12b b 、3.5 显著性检验OLS 估计量的抽样分布或概率分布f()()12221122,,,b b b N B bN B σσ3.5 显著性检验假设检验f 假定:家庭年收入对学生的数学成绩没有影响3.5 显著性检验假设检验f3.5 显著性检验假设检验:置信区间法f在数学H3.5 显著性检验假设检验:置信区间法f 整理3.5 显著性检验假设检验:置信区间法f图形(教材有误)0.00074 0.001873.5 显著性检验假设检验:置信区间法f 按照上述过程,同样可得截距95%的置信区间:f 如果,则显然拒绝零假设,因为上述95%的置信区间不包括0。

f 如果,则不能拒绝该假设,因为95%的置信区间包括了这个值。

1B 1393.4283471.3993B ≤≤0111:0,:0H B H B =≠0111:400,:400H B H B =≠3.5 显著性检验假设检验:显著性检验法f 核心思想是根据从样本数据求得的检验统计量的值决定接受或拒绝零假设。

3.5 显著性检验假设检验:显著性检验法f 在具体进行t 检验时f (1)对于一元线性回归模型(双变量模型),自由度为(n-2)。

f (2)常用的显著水平有1%、5%或10%。

为了避免选择显著水平的随意性,通常求出p 值(精确的显著水平),如果计算的p 值充分小,则拒绝零假设。

f (3)可用单边或双边检验。

α。

相关主题