当前位置:文档之家› 现代统计分析方法与应用第4章一元线性回归PPT课件

现代统计分析方法与应用第4章一元线性回归PPT课件


SPSS作一元回归的步骤: ⑴按Analyze→Regression→Linear顺序逐一单击鼠标,系统出现如下 对话框:
n
n
Q 0,1 yiy2 yi 0 1 xi2
i 1
i 1
所谓最小二乘法,就是寻找参数β0,β1的估计值 使ˆ0 ,上ˆ1式定义的离差平 方和达到最小,即:
n
Qˆ0,ˆ1
yiˆ0ˆ1xi 2
i1
n
min
0,1 i1
yi
0 1xi 2
根据上式求出的 ˆ0 , 就ˆ1 称为参数β0,β1的最小二乘估计,称:
表示成散点图如下:
[例4.2] 我国1986-2005年全国人均消费额与人均国民收入数据如下表:
表示成散点图如下:
二、一元线性回模型的数学形式
考虑两个变量间的关系,描述上述x与y间线性关系的数学结构通常用下式
表示:
y01x
(*)
上式(*)中y为因变量(被解释变量),x为自变量(解释变量) ,β0和β1是未 知参数。
上述均是研究两个变量之间的关系,而且他们的一个共同特点是:两个变 量之间有密切的关系,但他们之间密切的程度并不能由一个变量唯一确定另 一个变量。
为直观地发现n组样本数据(xi,yi)的分布规律,通常把(xi,yi)看成是平面直 角坐标系中的点,画出n个样本的散点图。
[例4.1] 现有20组粮食产量与化肥施用量的数据如下表:
般用 和ˆ 0 分别ˆ1 表示β0和β1的估计值。则称
yˆ ˆ0 ˆx
称为y关于x的一元线性经验回归方程。
在实际问题的研究中,为了方便地对参数作区间估计和假设检验,假定 模型中的误差项ε遵从正态分布,即:
~N0,2
三、线性回归模型的基本假设
假设1、自变量x是确定性变量,不是随机变量;
假设2、随机误差项ε具有零均值、同方差和不序列相关性:
一般情况下,对我们所研究的某个实际问题,获得的n组样本观测值(x1, y1),(x2,y2),…,(xn,yn)来说,如果它们符合模型(*),则:
yi 01xii
i=1,2,…,n
由式(**)有:
Ei 0 vari 2
回归分析的主要任务就是通过n组样本观测值(xi,yj)对β0和β1进行估计。一
ˆ0 yˆ1x
42 .69 8 4 .2 6 2 3 1 0 5 .9 0 7 1 3 26 0 . 3 92 10 38 于是回归方程为:
y ˆ30.2 90 1 4 8 3 .21 x7
由 ei yi可以yˆi得到残差的一个有用的性质:
n
i1 n
i1
ei x ie i
0
0
即残差的均值为0,残差以自变量x的加权平均值为0。
假设6也被称为模型没有设定偏误(specification error)
第二节 回归参数β0、β1的估计
es对tim每a一ti个on样,O本L观SE测)考值虑(x观i,y测i),值最yi与小其二回乘归法值(oryˆdiinar0y的le离1axsi差t s越q小ua越re好,综合
地考虑n个离差值,定义离差平方和为:
ε表示其他随机因素的影响。它是一个随机变量,通常假定ε满足:
E 0
var 2
(**)
对(*)式两端求期望,得:
Ey01x
(***)
式(***)称为回归方程。
在回归函数中引入随机项,主要有以下几方面的原因:
1)在自变量中被忽略的因素的影响; 2)变量观测值的观测误差的影响; 3)模型关系的设定误差的影响; 4)其它随机因素的影响。
假设5:随着样本容量的无限增加,解释变量X的样本方差趋于一有限常数。 即:
xx2Q n
n 假设6:回归模型是正确设定的。
假设5旨在排除时间序列数据出现持续上升或下降的变量作为解释变量,因 为这类数据不仅使大样本统计推断变得无效,而且往往产生所谓的伪回归问题 (spurious regression problem)。
yˆi ˆ0ˆ1xi
为yi的回归拟合值。称方和可表示为:
n
n
e2
i
yi ˆ0ˆ1xi 2
i1
i1
根据微分中求极值的原理,待定参数应满足下列方程组:
Q
0
0ˆ0
2
yi ˆ0 ˆ1xi 10
Q
1 1ˆ1
2
yi ˆ0 ˆ1xi xi 0
求解以上正规方程组得β0、β1的最小二乘估计(OLSE)为:
ˆ
0
y
1x
ˆ1
n
xi x yi y
i1 n
xi x 2
i1
其中:
1n x n i1 xi
y
1 n
n i 1
yi
n
n
记 Lxx xix2 xi2nx2
i1
i1
n
n
Lxy xixyiy xiyinxy
i 1
i 1
则待定参数估计值的公式可以简写为:
ˆ
0
y
ˆ1 x
ˆ
1
L xy L xx
由 ˆ0 y可ˆ知1x:
yˆ0 ˆ1x
将例4.1化肥施用量与粮食产量资料计算如下表:
x1 ni n1xi 60240 .372 830.2 93 16
y1 ni n1yi 85290.625 14329.668025
ˆ1L Lxxyx925297558.859542408.2917
E(εi)=0 Var (εi)=ε2 Cov(εi,εj)=0
i=1,2, …,n i=1,2, …,n i≠j i,j= 1,2, …,n
假设3、随机误差项ε与自变量x之间不相关:
Cov(xi,εi)=0
i=1,2, …,n
假设4、ε服从零均值、同方差、零协方差的正态分布
εi~N(0,ε2) 注意:
i=1,2, …,n
1、如果假设1、2满足,则假设3也满足; 2、如果假设4满足,则假设2也满足。
以上假设也称为线性回归模型的经典假设或高斯(Gauss)假设,满足该 假设的线性回归模型,也称为经典线性回归模型(Classical Linear Regression Model, CLRM)。
另外,在进行模型回归时,还有两个暗含的假设:
第4章 一元线性回归
• 一元线性回归模型 • 回归参β0、β1的估计 • 最小二乘估计的性质 • 回归方程的显著性检验 • 残差分析 • 预测和控制 • 建模总结和应注意的问题
第一节 一元线性回归模型
一、一元线性回归模型的实际背景
在实际问题的研究中,经常需要研究某一现象与影响它的某一最主要因素 的影响。如:研究粮食产量与施肥量之间的关系;研究国民收入与消费额之 间的关系;研究火灾损失与火灾发生地距最近消防站的距离之间的关系。
相关主题