当前位置:
文档之家› 股票收益预测模型的比较与选择_汤凌冰
股票收益预测模型的比较与选择_汤凌冰
‖ ‖ ‖ ‖ ‖ ‖ ‖ ‖ ‖ Σ ‖ ‖ ‖ ‖ ‖ ‖ ‖ ‖ ‖
l
(3 )
数据分布会比较均匀对称,逼近正态分布而能有效提 高预测性能[10]. EMAn 通过当天收盘价减去该天前 n 天 的价格指数滑动平均值EMAn 而获得. 减去均值是为了 消除价格中的趋势项,同时尽可能多地保存原始收盘 价在转换过程中损失的有用信息. 输出变量 RDP+5 则 首先分别将当天与其后第 5 天上的原始收盘价转化为 各自前 3 天的指数滑动平均值EMA3 , 然后再根据转换 独立变量的平滑变换也是为 后的新值求收益率. 同理, 了有效提高预测性能. 为了避免大值主导小值, 导致小
第 24 卷第 2 期 2009 年 6月
湖南科技大学学报 (自然科学版 )
Journal of Hunan University of Science & Technology (Natural Science Edition )
Vol.24 No.2 Jun. 2009
股票收益预测模型的比较与选择
2
1 2 Σ(yi -y赞) i n i=1 mse/νar (y ) 1 n
n
n
Σ
i=1
赞i yi -y
赞 分别表示真实与预测值 注: n 表示样本个数, y 与y
运用 SVR 进行时间序列预测的首要问题就是选 择核函数类型. 采用高斯核函数 exp ‖ 是 -γ · ‖x-x' ‖ ‖ 一个合理的选择. 高斯核在总体平滑的假定下无需任 参数较少且计 何先验知识便能表现出良好性能.同时, 算简单也是其广泛应用的原因之一. 确定了核函数类 型接着就是通过交叉验证方法确定支持向量回归机 ε 与高斯核函数参数 γ. 参数搜索是支持向量 参数 C, 机理论付诸实践的关键问题. 通常采用网格搜索法即 ε, γ ) 中搜索使预测性能较为显著的区 在三维空间 (C, 域. 图 1 给出了参数性能分布图.
2 实验结果及分析
实验数据集选用国际商用机器公司 IBM 股票的 收盘价 (1990.10- 1992.10 ) . 整个数据集从左至右依时 间轴划分为 3 个数据子集: 训 练 集(1990.10) , 评 价 集 (1992.1- 1992.3 ) 与预 测 集 1991.12 (1992.4- 1992.10 ) . 训 练 集 用 来 训 练 SVR,MLP 与
(1 )
显然, 如果 w 具有较小范数便可认为 f 趋向扁平. min 1 ‖w‖2, 2 yi - w × xi -b≤ε, w × xi +b-yi ≤ε, i=1, 2, …, l. (2 )
GRNN. 评价集通过交叉验证选取各比较对象的最优 参数. 预测集则用来评价个比较对象的预测性能. 输入向量由 4 个基于以 5 天为预测时段的收益 RDP- 10, RDP- 15 与 RDP- 20 ) 与转变后的 率(RDP- 5, 收盘价 EMA15 共 5 个分量组成 [9], 如表 1 所示 . 其中, RDP- n 表示当天之前 n 天的股票收益率. 之所以将原 始数据的收盘价转换为对应的收益率是因为处理后的
(7 )
( f x ) =Σ (ai - a ) · k (xi, x ) +b.
数据中寻找使 ε 管道尽可能小的逼近函数 ( f x ) . 假定 ( f x ) 采用如下形式, ( f x ) =w×x+b, w∈X, b∈R. 因此, 可以通过下述方法予以实现:
‖ ‖ ‖ ‖ ‖ ‖ ‖ ‖ ‖ ‖ ‖ ‖ ‖ ‖ ‖ ‖ ‖
(6 )
预测性能通过以下统计指标来衡量:均方误差 MSE,正则均方误差 NMSE 与平均绝对误差 MAE. 它 们是真实值与预测值之间的偏差度量, 其值越小表示 预测性能越好[11]. 性能指标与计算公式如表 2 所示. 71
(a - a ) = 0, Σ
ai , ai*∈ (0, C ) .
表 2 性能指标与计算公式 Tab.2 Performance measures and their calculations
. 其复杂性在于价格序列的演变呈现随机游走
特征, 而采用随机游走模型则预示着演变的下一步行 为无法预测. 同时,刻画价格序列的随机过程其均值 与方差都在不断变化, 更增加了预测的难度. 为了较好地解决这一问题, 研究者从不同的专业 角度提出了各种模型. 近来,计算金融逐渐成为国际 上金融领域研究的新热点. 与传统计量金融,数理金 融与金融工程不同, 它主要研究人工智能与机器学习 算法在面向数据驱动的金融分析中的应用. 诸多研究 表明相对于经典统计学模型的不足 , 神经网络具有
[2]
数据驱动, 非参数弱化等优点, 特别是其出色的容噪 性使之能从杂质较多甚至残缺不全的数据中有效获 取知识, 因而逐渐成为时间序列ห้องสมุดไป่ตู้模中一个强大的预 神经网络预测时间序列总体 测工具 . 纵览相关文献,
[3]
上分为两类 : 一类是所谓的静态网络结构 , 如 MLP
[4] [5]
收稿日期: 2008- 11- 26 基金项目: 湖南省自然科学基金 (09JJ3129 ) 作者简介: 汤凌冰 (1975-) , 男, 湖南湘潭人, 博士生, 讲师, 主要从事计算金融研究.
金融时间序列模型是整个金融领域建模的基石 与关键. 准确的股票收益预测能对股票风险进行早期 预警. 同时有助于正确理解价格波动行为,为期权定 价等提供有效支持. 然而股票价格序列是一种动态的 高噪声序列, 对其预测是一项复杂而充满挑战的艰巨 任务
[1]
与 GRNN. 这种拓扑结构中没有时空单元, 需要事先借 助固定大小的时间窗口将时间序列转化为维数确定的 向量集合才能输入处理. 另一类便是动态网络结构 [6], 如时延神经网络和部分递归网络等. 它们的拓扑结构 中含有时空神经元,无需事先转化即可直接处理 . 就 其本质而言两者是统一的, 时间序列最终都得转换成 向量集, 只不过前者在网络外由研究者做而后者则在 内部网络中借助时空机制自行解决而已. 尽管神经网 络能有效分析股票价格但它存在的过拟合现象使其 泛化性能较低. 同时,它也容易限于局部难以获得全 瓦普尼克 (Vapnik ) 提出了一种新型神 局最优解. 为此, 经网络— ——支持向量机 (SVM ) , 其泛化能力有了革命 性提高 [7]. 其后, 随着 ε 不敏感损失函数的引入, 支持 向量机从原来只处理分类问题逐步扩展到也能胜任 回归任务, 后者称为支持向量回归机 (SVR ) . 由于基于 结构风险最小化和线性二次规划理论, 因此它具有泛 化能力强,全局最优等优点. 尤为值得一提的是通过 构造核函数能在无需知道映射具体形式的情况下将 非线性问题映射到高维线性空间, 并对支持向量机的 预测性能起到决定性影响[8]. 作为神经网络时间窗预
性能指标 MSE NMSE MAE 计算公式
分支, 其结构与径向基网络接近, 仅在输出的线性层 有所不同, 非常适合函数逼近, 因而也被选为 SVR 的 参照对象.GRNN 的输入节点数为 5,输出节点数为 1. 其中间层为径向基隐含层,单元个数等于训练样本 数, 该层的权值函数为欧几里德距离度量函数.径向基 函数选用高斯函数, 其光滑因子决定函数形状与数据 拟合程度, 本实验设定为 0.1. 训练集结果参见表 3. 从表中可以看出 SVR 不仅 具有最小的 MSE 值,而且具有最小的 NMSE 与 MAE 值. 这就意味着 SVR 具有最好的预测性能, GRNN 次 MLP 最差. 预测集结果也参见表 3. 由于预测集的过 优, 拟合现象可以忽略而为三者提供了更客观的比较 . 不 出预料, 预测集的结果要比训练集差一些, 但是仍然可 以获得与训练集类似的结论.其性能由优至劣也依次为 SVR,GRNN 与 MLP. 图 2,图 3 与图 4 分别给出了 SVR, MLP 与 GRNN 的预测曲线,并和真实值 RDP+5 做了对比. 勿庸置疑,比较各预测曲线不难看出 SVR 显然更胜一筹. 这一结论也从表 3 中得到了证实.
汤凌冰1,2,盛焕烨1,汤凌霄3
(1. 上海交通大学 计算机系, 上海 200240; 2. 湖南商学院 计算机与电子工程学院, 湖南 长沙 410205; 3. 长沙理工大学 管理学院, 湖南 长沙 410076 )
摘
要: 计算金融是一门将机器学习的有关理论应用于金融研究的新兴学科 .而股票收益预测则是金融研究的一个重要课题,
在规避风险与投资决策中起着举足轻重的作用 . 作者基于统计学习的基本理论与计算金融的研究方法,将支持向量回归机这一新 型神经网络应用于收益序列预测的回归分析,力求在克服数据过拟合现象的基础上寻找问题的全局最优解 . 通过交叉验证选择学 习参数, 实验表明基于二次规划与核函数理论的支持向量回归机能准确捕捉动态股票收益序列的波形特征, 其预测性能与多层感 知器以及广义回归神经网络进行比较, 具有较为明显的优势 . 图 4, 表 3, 参 12. 关键词: 股票收益预测; 支持向量回归机; 多层感知器; 广义回归神经网络. 中图分类号: TP 274 文献标识码: A 文章编号: 1672- 9102 (2009 ) 02- 0070- 04
3
(a - a ) =0, Σ
* i
ai , a∈ (0, C ) . 最后考虑非线性问题 . 绝大多数问题都需要将 输入空间映射到特征空间进行处理, 这通过核函数 予以实现: k (x, y ) =φ (x ) · φ (x ) . 因此, 问题的最终形式为
‖ ‖ ‖ ‖ ‖ ‖ ‖ ‖ ‖ ‖ ‖ Σ ‖ ‖ ‖ ‖ ‖ ‖ ‖ ‖ ‖ ‖ ‖
因为采用对偶形式能减少问题的变量数目从而 缩小问题的解决规模, 所以通常运用拉格朗日方法将 原问题转化为其对偶形式在加以处理:
‖ ‖ ‖ ‖ ‖ ‖ ‖ ‖ ‖ ‖ ‖ Σ ‖ ‖ ‖ ‖ ‖ ‖ ‖ ‖ ‖ ‖ ‖
max- 1 2
l i=1