我用的是Eviews3.1注册版(因为其他的版本没注册都不稳定容易自己关闭程序),但大抵操作应该是相同的。
首先建立新的workfile,在命令窗口输入series,弹出新建的数列窗口,把要检验的数据存进去。
然后再数列窗口下点击view,找到unit root test就是单位根检验,弹出来的窗口的左上角是选择检验方式,一般保持默认的DF那一项就好了,Eviews里面的这个DF选项是把DF与ADF检验都包括在一起了。
右边的intercept啦intercept and trend啦是针对ADF 检验的不同模型,如果搞不清楚干脆就按默认吧。
左下角的level,1st differential,2st什么的是问你是针对原始数据、还是一阶差分、二阶差分来做检验,默认是level,就是原始数据。
都选好之后点击OK就好了。
输出的结果主要是看上面的表,第一个表左边给出一个值,右边给了三个值,分别是置信度99%,95%,90%的ADF检验临界值。
左边的值如果小于右边的某个值,说明该数据落在右边那个对应值的置信区间里。
比如左边给出-3,右边对应95%置信度的值是-1,-3<-1所以数据不存在单位根,是平稳的,这一检验的置信度是95%。
大概是这样吧,具体的ADF模型选择等等最好看一看相关书籍。
Eviews不难学的~~嘿嘿我也就是三天恶补大概看完的。
ADF检验的原假设是存在单位根,一般EVIEWS输出的是ADF检验的统计值,只要这个统计值是小于1%水平下的数字就可以极显著的拒绝原假设,认为数据平稳。
注意,ADF值一般是负的,也有正的,但是它只有小于1%水平下的才能认为是及其显著的拒绝原假设
这样的话,如果你的变量是水平变量。
那么,你需要取对数,一般来说,取对数后的变量一般是平稳的,这样,你无需作协整;如果对数变量非平稳,再取一阶差分(绝大多数的水平变量取对数后再一阶差分是平稳的),你就可以作协整了了。
如果你的变量已是相对数,xt 与yt 并非I(1),那么,不能作协整,仅作一般的时间序列分析即可。
一,首先我根据ADF检验结果,来说明这两组数据对数情况下是否是同阶单整的(同阶单整即说明二者是协整的,这是一种协整检验的方法),我对你的两组数据分别作了单位根检验,结果如下:
1.LNFDI水平下的ADF结果:
Null Hypothesis: LNFDI has a unit root
Exogenous: Constant
Lag Length: 2 (Automatic based on AIC, MAXLAG=3) Augmented Dickey-Fuller test statistic
t-Statistic Prob.*
-1.45226403166189 0.526994561264069
Test critical values:
1% level -4.00442492401717
5% level -3.09889640532337
10% level -2.69043949557234
*MacKinnon (1996) one-sided p-values.
Warning: Probabilities and critical values calculated for 20
observations and may not be accurate for a sample size of 14
从上面的t-Statistic对应的值可以看到, -1.45226403166189大于下面所有的临界值,因此LNFDI在水平情况下是非平稳的。
然后我对该数据作了二阶,再进行ADF检验结果如下:
t-Statistic Prob.*
- 2.8606168858628 0.0770552989049772
Test critical values:
1% level -4.05790968439663
5% level -3.11990956512408
10% level -2.70110325490427
看到t-Statistic的值小于10% level下的-2.70110325490427,因此可以认为它在二阶时,有90%的可能性,是平稳的。
2.LNEX的结果:
它的水平阶情况与LNFDI类似,T统计值都是大于临界值的。
因此水平下非平稳,但是二阶的时候,它的结果如下:
t-Statistic Prob.*
-4.92297051527175 0.00340857899403409
Test critical values:
1% level -4.20005563101359
5% level -3.17535190654929
10% level -2.72898502029817
即,T统计值-4.92297051527175小于1% level的值,因此认为,它在二阶的时候,是有99%的可能是平稳的。
这样就可以认为两者LNFDI和LNEX是单阶同整的。
即通过了协整检验。
二,GRANGER检验(因果关系检验)
这个就是为了看这两组数据是否存在因果关系。
我做了他们的二阶因果关系检验(因为他们在二阶时都平稳),结果如下:
Null Hypothesis: Obs F-Statistic Probability
LNEX does not Granger Cause LNFDI 15
7.47260684251629 0.0103529438201321
LNFDI does not Granger Cause LNEX
71.0713505999399 0.0103529438201321
看到,Probability下面对应的值,0.0103529438201321
和0.0103529438201321都是小于0.05的,因此我们可以认为这两组数据之间相互存在着因果关系。
写了这么多,你还有问题就在补充里说吧~我不知道你要的是结果还是做法,结果就是这样的~~
在对时间序列Y、X1进行回归分析时需要考虑Y与X1之间是否存在某种切实的关系,所以需要进行协整检验。
1.1利用eviews创建时间序列Y、X1 :
打开eviews软件点击file-new-workfile,见对话框又三块空白处workfile structure type处又三项选择,分别是非时间序列unstructured/undate,时间序列dated-regular frequency,和不明英语balance panel。
选择时间序列dated-regular frequency。
在date specification中选择年度,半年度或者季度等,和起始时间。
右下角为工作间取名字和页数。
点击ok。
在所创建的workfile中点击object-new object,选择series,以及填写名字如Y,点击OK。
将数据填写入内。
1.2对序列Y进行平稳性检验:
此时应对序列数据取对数,取对数的好处在于可将间距很大的数据转换为间距较小的数据。
具体做法是在workfile y的窗口中点击Genr,输入logy=log(y),则生成y的对数序列logy。
再对logy序列进行平稳性检验。
点击view-United root test,test type选择ADF检验,滞后阶数中lag length选择SIC检验,点击ok得结果如下:
Null Hypothesis: LOGY has a unit root
Exogenous: Constant
Lag Length: 0 (Automatic based on SIC, MAXLAG=1)
t-Statistic Prob.* Augmented Dickey-Fuller test statistic
-2.75094601716637 0.0995139988900359
Test critical values: 1% level -4.29707275602226
5% level -3.21269639026225
10% level -2.74767611540013当检验值Augmented Dickey-Fuller test statistic的绝对值大于临界值绝对值时,序列为平稳序列。
若非平稳序列,则对logy取一阶差分,再进行平稳性检验。
直到出现平稳序列。
假设Dlogy和DlogX1为平稳序列。
1.3对Dlogy和DlogX1进行协整检验
点击窗口quick-equation estimation,输入DLOGY C
DLOGX1,点击ok,得到运行结果,再点击proc-make residual series进行残差提取得到残差序列,再对残差序列进行平稳性检验,若残差为平稳序列,则Dlogy与Dlogx1存在协整关系。