墨墨 : CN 1 1-2223/N 清华大学学报(自然科学版)2015年第55卷第4期
J Tsinghua Univ(Sci&TeehnoD,2015,Vo1.55,No.4
最小二乘支持向量机鲁棒回归算法研究 顾燕萍 , 赵文杰。, 吴占松 (1.清华大学热能工程系,电力系统国家重点实验室,北京100084; 2.华北电力大学自动化系,保定071003)
摘要:最小二乘支持向量机因模型学习过程中以二次损 失函数为经验风险,造成学习结果对噪声特别敏感。鉴于 实际问题中噪声不可避免、不可预测,且分布规律难寻,该 文主要研究最小二乘支持向量机的鲁棒性增强算法,以提 高其抵抗噪声与异常值的能力。通过分析得知,样本的局 部异常因子与噪声大小间具有很大的相关性,因此提出了 用于非线性回归问题的局部异常因子概念;并将其应用于 最小二乘支持向量机模型学习时最优损失函数的确定中, 提出了基于样本局部异常因子的直接加权最小二乘支持向 量机鲁棒回归算法。为验证所提出算法的性能,该文最后 以2个典型非线性对象为例,将其与原最小二乘支持向量 机、文献中已有的基于预估噪声分布的加权最小二乘支持向 量机进行了对比 对比结果表明,所提出的直接加权最小 二乘支持向量机算法具有更好的鲁棒性 关键词:最小二乘支持向量机;局部异常因子;加权系数; 鲁棒性;直接加权
中图分类号:TP 181 文献标志码:A 文章编号:1000-0054(2015)04—0396-07
Investigation of robust least squares-support vector machines
GU Yanping ,ZHAO Wenjie ,WU Zhansong (1.State Key Laboratory of Power System,Department of Thermal Engineering,Tsinghua University,BeUing 100084,China 2.Department of Automation,North China Electric Power University,Baoding 071003,China)
Abstract:Least squares-support vector machine([.S-SVM)is a special version of support vector machines(SVMs),which works with a sum squared error cost function.Despite its computationally attractive feature,the estimation of the model parameters is only optimal while the error variables satisfy Gaussian distribution,which is rarely the case in the industrial context.In this paper,an algorithm called direct weighted least squares support vector machine (DWLS-SVM)was developed,aiming to overcome the drawback mentioned above and obtain robust estimates for most industrial applications.Local outlier factor(LOF)is a variable which depicts
5/15 396—402
the degree of an object being an outlier.Analysis shows that high correlation exists between LOF and the noise magnitude.Therefore, a new definition of LoF was presented and applied to the decision of weighting coefficients in the cost function of the DWLS-SVM.Two typical nonlinear examples were taken in the numerical experiments for the validation of the proposed DWLS-SVM.Comparison was also made among the DWL SVM。original LS-SVM and existing robust LS_SVM algorithms.The results indicate that the DWLS-SVM in this paper holds highest robustness with the regression model with the DWLS-SVM being capable of identifying outliers from the sample set and being immune to the noise distribution.
Key words:least squares support vector machine;local outlier factor;weighting coefficient;robust;direct weighted
支持向量机(support vector machine,SVM)是 由Vapnik_1]提出,最初用于分类和非线性回归问 题的人工智能技术。它基于统计学习理论,以结构 风险最小化为原则,利用有限数量的观察来寻找待 求的依赖关系,是一种基于数据的机器学习算法。 SVM模型的训练通过求解二次规划(quadratic programming,QP)问题完成,相对于常用的人工 神经网络技术,SVM可有效地避免局部最优、过学 习、学习时间长等问题,因此得到越来越广泛的 关注。 最小二乘支持向量机(1east squares—support vector machine,LS—SVM)是Suykensl2 提出的特 殊SVM形式,它不仅具有SVM的上述优点,而且 根据KKT(Karush-Kuhn-Tucker)条件,模型的学 习只需求解一系列线性方程即可完成,算法复杂度 非常低。至今,LS-SVM在模式识别L3 ]、工业过 程建模 蚋]、软测量 剖、故障诊断[。 和时间序列预 测n阳等领域都得到了成功的应用。然而,由于LS-
收稿日期:201l_O8一l8 作者简介:顾燕萍(1986一),女(汉),江苏,博士研究生。 通信作者:吴占松,教授,E-mail:wzs@tsinghua.edu.cn 顾燕萍,等: 最小二乘支持向量机鲁棒回归算法研究 397 SVM模型的学习以二次损失函数为经验风险,造 成学习结果对噪声特别敏感,只有当噪声服从 Gauss分布时才能得到原问题的最佳无偏估计。而 现实大多数情况下,噪声是不服从Gauss分布的, 且工业测量值中还会因为设备故障等包含异常值。 本文主要研究增强LS-SVM鲁棒性的算法,以提高 其抵抗噪声和异常值的能力。 关于LS—SVM的鲁棒性增强算法,已有学者进 行了研究。比较常用的是在模型学习的目标函数中 经验风险项引入加权系数,即加权最小二乘支持向 量机(weighted least squares—support vector ma— chine,WLS—SVM)[1l-lZ]。WLS—SVM与原LS- SVM相比,没有事先限定损失函数的形式,而是 根据实际学习样本来确定最优损失函数,因此,它 被公认为提高LS—SVM算法抗噪声、抗异常值能力 的有效方法。WLS-SVM中经验风险项的加权系数 是影响算法性能的关键。文[11—12]根据噪声分布 规律确定加权系数大小,但实际还是假设真实噪声 服从Gauss分布,与实际情况仍不一定相符。 本文提出一种直接加权最小二乘支持向量机 0 1 1 K(X1 ̄X1)+ 1 1 K( 1, 2) (direct weighted least squares——support vector ma。- chine,DWLS—SVM)。相对于已有的WLS—SVM 算法,DWLS—SVM无需借助原LS—SVM对样本中 的噪声进行预估,而是直接根据样本的局部异常因 子(1ocal outlier factor,LOF)确定损失函数项加权 系数的大小。本文最后基于两个典型的非线性对 象,将文中所提出的DWLS—SVM算法与原LS— SVM和已有WLS-SVM算法进行对比,以验证其 抗噪声和异常值的能力。 l加权最小二乘支持向量机 WLS-SVM是在LS-SVM模型学习结构风险中 的经验风险项引入加权系数,对于训练集{X ,Y ) 一 (xk ER”,y ER),模型学习的主要思想如下: 1 min:告I1 ll +c∑ 2, (1) —h—=l S.t. 一W 声( )+b+ , k一1,…,Z. (2) 与原LS—SVM类似,根据KKT条件,wLS_ SVM模型的学习可转化为式(3)所示线性方程组的 求解,因此,相对于原LS—SVM,WLS—SVM并没 有增加模型学习的计算量。
1 K( 1, ) 1 K(X2 ̄X1) K(X2 ̄X2)+ 1K(x2 9x1)
1 K( l, ) g(xz ̄X2) …K( , )+ 1 由式(1)可知,WLS-SVM模型的学习仍是基 于结构风险最小化原则,但经验风险项已没有预先 限定,而是与加权系数{ } : 有关。因此,通过改 变加权系数可以寻找到最优的损失函数,{ ) 一 的 确定可看成损失函数的优化问题。 非线性拟合问题中WLS—SVM加权系数的确 定方法,比较常用的是文[11]中所提出的根据实际 噪声偏离Gauss分布的程度确定加权系数大小的 方法。该方法首先采用原LS—SVM算法对训练集 样本进行预学习,得到预估支持值{a } 一 ;进而根 1 据误差与支持值问的关系e 一南 _2],得到样本数 据中噪声{e }: 的预估;然后计算噪声序列{e } 一 的四分差(inter—quartile range,IQR),并由式(4) 计算噪声序列的标准差估计j;最后根据式(5)确定 加权系数{ } l一 的大小, 2.5,C2—3。