应用回归分析试题(二)
一、选择题
1. 在对两个变量x , y 进行线性回归分析时,有下列步骤:
①对所求出的回归直线方程作出解释;②收集数据(X i
、),1,2,…, n ;③
求线性回归方程;④求未知参数; ⑤根据所搜集的数据绘制
散点图。
如果根据可行性要求能够作出变量x ,y 具有线性相关结论,则在下列 操作中正确的是(D ) A .①②⑤③④ B .③②④⑤① C .②④③①⑤
D .②⑤④③①
2. 下列说法中正确的是(B ) A .任何两个变量都具有相关关系 B .人的知识与其年龄具有相关关系 C .散点图中的各点是分散的没有规律
D .根据散点图求得的回归直线方程都是有意义的 3. 下面的各图中,散点图与相关系数r 不符合的是(B )
\ 4
yi
i
.• — |<r<l} r=0
r=ft5* ■ f
Si f •■甘
■ *
八
■ *
■
■ -t •・ *
«
■ * fr * ■
•・
1» • ・
■ • ■
■ » •
• • ■
严
.1
"1 ; X. w
c.
1
口
4. 一位母亲记录了儿子3〜9岁的身高,由此建立的身高与年龄的回 归直线方程为? 7.19x 73.93,据此可以预测这个孩子10岁时的身高,
5.
在画两个变量的散点图时,下面哪个叙述是正确的 (B )
(A) 预报变量在x 轴上,解释变量在y 轴上 (B) 解释变量在x 轴上,预报变量在y 轴上 (C) 可以选择两个变量中任意一个变量在 X 轴上 (D) 可以选择两个变量中任意一个变量 二、 填空题
m
丄
1. y 关于m 个自变量的所有可能回归方程有-一1个。
2. H 是帽子矩阵,贝S tr(H)=p+1。
3. 回归分析中从研究对象上可分为一元和多元。
4. 回归模型的一般形式是 y ° 1X 1 2X 2
p
X p。
5. Cov(e) 2(l H) (e 为多元回归的残差阵)。
三、 叙述题
1.引起异常值消除的方法(至少5个)? 答案:异常值消除方法:
(1) 重新核实数据; (2) 重新测量数据;
(3) 删除或重新观测异常值数据; (4) 增加必要的自变量;
则正确的叙述是(D ) A .身咼一定是145.83cm C .身高低于145.00cm
B .身高超过146.00cm D .身高在145.83cm 左右
(5)增加观测数据,适当扩大自变量取值范围;
(6)采用加权线性回归;
(7)改用非线性回归模型;
2.自相关性带来的问题?答案:(1)参数的估计值不再具有最小方差线性无偏性;
(2)均方差(MSE)可能严重低估误差项的方差;
(3)容易导致对t 值评价过高,常用的 F 检验和t 检验失
败;
A
(4)当存在序列相关时,仍然是的无偏估计量,但在任一
A
特定的样本中;A可能严重扭曲的真实情况,即最小二乘估计量对抽样波动变得非常敏感;
(5)如果不加处理的运用普通最小二乘估计模型参数,用此模型进行预测和结构分析会带来较大的方差甚至错误的解释。
3.回归分析与相关分析的区别与联系是什么?答案:联系:回归分析和相关分析都是研究变量间关系的统计学课题。
区别:a.在回归分析中,变量y称为因变量,处在被解释变量的特殊位。
在相关分析中,变量x 和变量y 处于平等地位,即研究变量y 与变量x 的密切程度与研究变量x 与变量y 的密切程度是一回事。
b.相关分析中涉及的变量y与变量x全是随机变量。
而在回归分析中,因为变量是随机的,自变量可以是随机变量,也可以是非随机的确定量。
c.相关分析的研究主要是为了刻画两类变量间线性相关的密切
程度。
而回归分析不仅可以提示变量x对变量y的影响大小,还可以由回归方程进行预测和控制。
i
)
4. 叙述一元回归模型的建模过程? 答案:第一步:提出因变量与自变量;
第二步:收集数据; 第三步:画散点图; 第四步:设定理论模型;
第五步:用软件计算,输出计算结果; 第六步:回归诊断,分析输出结果。
四、证明题
A
1.证明0是0的无偏估计。
A
A
证明:E( °)=E(Y - i X )
=E[
(丄X 宁)E(
i 1 n
L
xx
1 n =E(- Y n i 1
-X n X^Y )
i 1 L
xx
n
1
=E((-
i 1
n
X 冒Y))
L
xx
n
1
=E[(丄
n
X 于)(0
L
xx
i
X i i )]
i
]
2. 当y~N(X , 2 I n )时,证明~N( , 2(X'X) 1)。
A
证明:E( )=E((X T X)1 X T y)
=( X T X ) 1X T E(y)
=( X T X ) 1X T E(X + )
=( X T X ) 1X T X
A A A
D( )=cov( , )
=cov(( X T X ) 1 X T y,(X T X ) 1 X T y)
=( X T X ) 1X T cov(y,y)(( X T X ) 1X T)T
=( X T X ) 1X T 2X( X T X ) 1
= 2( X T X) 1X T X( X T X) 1
= 2( X T X ) 1
A
3.证明,在多元线性回归中,最小二乘估计与残差向量e不相关, 即Cov( ,e) 0
A
T 1 T
证明:Cov( ,e) Cov[( X T X) 1X T y,(I H)y]
T 1 T T
(X T X) 1 X T Cov( y, y)( I H)T
2 T 1 T
2(X T X) 1 X T(I H)
2 T 1 T T 1 T T 1 T
2[(X T X) 1X T (X T X) 1 X T X(X T X) 1X T]
2[(X T X) 1X T (X T X) 1 X T]
参考题:
1.某同学由X与y之间的一组数据求得两个变量间的线性回归方程为y bx a,已知:数据X的平均值为2,数据y的平均值为3,则
(A )
A .回归直线必过点(2, 3)
B .回归直线一定不过点(2, 3) 0点(2, 3)在回归直线上方 D .点(2, 3)在回归直线下方2.在一次试验中,测得(x,y)的四组值分别是A(1,2), B(2,3),C(3,4), D(4,5) 则Y 与X之间的回归直线方程为(A )
A. $ x 1 B .$x2 c. $2x1 D. $ x 1
L
xy
3.相关系数.L xx L yy的意义是:(1) d , (2) |r|越接近于1,
相关程度越大,(3) |r|越接近于0,相关程度越小,
4.DW的取值范围为:0 DW 4
5.叙述自变量选择的准则
答案:准则1:自由度调整复决定系数R a2达到最大;
准则2:赤池信息量AIC达到最小;
准则3: C p统计量达到最小。