摘要
针对离群值环境下的在线学习问题,提出一种鲁棒正则化贯序超限学习机(Robust regularized online sequential extreme learning machine, RR⁃OSELM)。RR⁃OSELM以增量学习新样本的方式实现在线学习,并在学习过程中基于样本的先验误差进行逆向加权计算以降低学习模型对于离群值的敏感性;同时RR⁃OSELM通过融合使用Tikhonov正则化技术进一步增强了其在实际应用中的稳定性。实验结果表明,RR⁃OSELM具有较同类算法更好的鲁棒性和实用性,对于离群值环境下的在线建模与预测问题是积极有效的。
在线学习是当前机器学习研究领域的一个重要方向,其基本思想是随着数据样本的不断到达,学习器能够对当前样本进行“局部”学习并保持模型的同步更新。与采用批量计算模式的离线学习方法相比,在线学习方法能以增量的方式实现对数据样本的持续快速学习,为解决目前广泛存在的数据流在线建模与预测问题提供了天然的解决方
在线贯序超限学习机(Online sequential extreme learning machine, OSELM) 是近年来广受关注的一种新颖而实用的在线学习算
针对离群值环境下的在线学习问题,本文提出一种具有抗离群值能力的鲁棒正则化贯序超限学习机(Robust regularized online sequential extreme learning machine, RR⁃OSELM)。RR⁃OSELM继承了OSELM贯序学习的基本思想,并在在线学习过程中基于样本的先验误差进行逆向加权计算,以有效抑制离群值对学习模型的影响;同时,RR⁃OSELM通过引入Tikhonov正则化技术使得算法具有良好的稳定性。仿真实验验证了RR⁃OSELM的鲁棒性和实用性。
OSEL
(1) |
式中:aj和bj分别是第j个隐层节点的输入权值和偏移, βj是连接第j个隐层节点与输出层的输出权值, 表示第j个隐层节点关于输入向量xi的输出。
该SLFNs能以零误差逼近这N个样本,即存在(aj ,bj)及βj使得
(2) |
式(2)可写成如下矩阵形式
(3) |
(4) |
(5) |
根据文献[
(6) |
ELM采用最小模最小二乘解作为网络的输出权值,即
(7) |
式中,为H的Moore⁃Penrose广义逆。若非奇异,式(7)可进一步表示为
(8) |
为了满足在线学习的需要,Liang
在初始化阶段,对于给定的初始训练子集, 根据式(8)初始的输出权值可表示为
(9) |
式中,,。
在在线学习阶段,每当获取到一个新的训练样本, 则按照下式递推计算输出权值
(10) |
式中。
根据OSELM算
(11) |
然而,LS学习准则对于离群值非常敏
(12) |
式中为权衡这两种风险的正则化参数。尽管R⁃OSELM通过使用正则化方法有效避免了迭代学习过程中潜在的病态矩阵求逆问题,从而增强了算法的稳定性,并在一定程度上减轻了对于离群值的敏感性,但其抗离群值能力仍然非常有限。直观上分析,若当前训练样本为离群值样本,则其对应的训练残差将严重偏离正常范围,此时代价函数在整体上是有偏的,显然在此情形下训练得到的学习模型也将是不准确的。
为进一步增强 R⁃OSELM 对于离群值的鲁棒性,本文引入 Tikhonov正则化技术和样本加权的思想,提出一种新的鲁棒正则化 OSELM 学习模型(RR⁃OSELM)。该模型对应的代价函数如下
(13) |
式中为一个非负的权值系数,用来对不同的学习样本进行加权。本文借鉴文献[
(14) |
式中为当前样本的先验误差。这里注意到,的计算结果可能大于1,而这会影响算法的收敛性,为解决此问题,本文使用
(15) |
下面将推导出RR⁃OSELM模型中输出权值的递推计算公式以满足在线学习的要求。让代价函数对求微分并令结果为零,可得法方程
(16) |
式中
(17) |
(18) |
对式(17)应用Sherman⁃Morrison公
(19) |
令,则式(19)可重写为
(20) |
综合式(16)和式(18),可表示为
(21) |
将式(17)代入式(21)中,有
(22) |
综上,RR⁃OSELM模型中输出权值的递推计算公式可最终表示为
(23) |
式中由式(15)计算得到,并且当时,RR⁃OSELM退化R⁃OSELM。
根据式(10),OSELM(及R⁃OSELM)算法中输出权值的微分向量可表示为
(24) |
则其L1范数为
(25) |
由式(25)容易看出,受离群值样本扰动误差的影响,OSELM(及R⁃OSELM)算法中输出权值的微分向量的L1范数将快速增加,导致学习模型不够准确。
类似地,根据式(23)可以得到RR⁃OSELM算法中输出权值的微分向量的L1范数为
(26) |
可以看到离群值样本所带来的扰动误差并没有对造成直接影响。使用著名的向量范数不等式
(27) |
可进一步得到RR⁃OSELM算法中的L2范数也是有界的,即RR⁃OSELM算法对离群值具有良好的抗干扰能力和鲁棒性。
为了评估RR⁃OSELM算法的鲁棒性,本文通过1个人工函数逼近问题和7个标杆混沌时间序列预测问题对其进行了实验验证,并将实验结果与EL
(28) |
式中:,分别为真实值和预测值,N为测试样本的数目。
“SinC”函数逼近是评估学习模型学习拟合能力的常用实
(29) |
根据式(29)分别生成各包含5 000个数据样本 (xi , yi) 的训练集和测试集,其中自变量xi为区间 (-10, 10) 内的随机数。为了检验各种算法对于离群值的鲁棒性,训练集中10%的正常样本被离群值样本所替换,即将这些样本的输出yi用范围在(-2, 2)之间的随机数来代替。
本实例的实验设置如下。参照文献[
根据OSELM算法的稳定性分
算法 | 测试 RMSE | 训练时间/s | ||
---|---|---|---|---|
无离群值 | 有离群值 | 无离群值 | 有离群值 | |
ELM R⁃ELM R⁃OSELM |
2.62E-04 8.96E-04 1.78E-03 |
2.05E-02 1.74E-02 1.72E-02 |
0.010 93 0.005 46 0.224 37 |
0.012 50 0.003 12 0.232 18 |
RR⁃OSELM | 1.74 E-03 | 2.91E-03 | 0.246 09 | 0.259 06 |
为了更直观地比较R⁃OSELM和RR⁃OSELM对于离群值的抵抗能力,给出了这两种学习算法在训练集不包含离群值和包含离群值两种情形下对“SinC”函数进行逼近的典型输出曲线图,分别如图

图 1 R⁃OSELM的函数逼近结果
Fig.1 Function approximation results of R⁃OSELM

图 2 RR⁃OSELM的函数逼近结果
Fig.2 Function approximation results of RR⁃OSELM
本小节选择Mackey⁃Glass,Rossler,Logistic,Henon,Lorenz,Ikeda和Quadratic这7个经典的混沌时间序列作为实验数据集,时间序列数据采用四阶Runge⁃Kutta算法生成得到。为评估各种算法对于离群值的鲁棒性,在各时间序列的训练集中根据其大小不同添加了一定数量的离群值,这里离群值由随机数发生器随机生成,生成范围为各训练集中的最小值与最大值之间的开区间。
时间序列 | 训练样本 | 测试样本 | 离群值个数 | |
---|---|---|---|---|
Mackey⁃Glass | 1 000 | 500 | 8 | (17, 1) |
Rossler | 1 500 | 500 | 13 | (1, 5) |
Logistic | 1 500 | 500 | 13 | (4, 1) |
Henon Lorenz Ikeda Quadratic |
1 500 1 500 1 500 1 500 |
500 500 500 500 |
13 13 13 13 |
(4, 1) (9, 1) (5, 1) (5, 1) |
对于上述包含离群值的时间序列数据集,分别使用ELM,R⁃ELM,OSELM,R⁃OSELM和RR⁃OSELM 5种算法对训练样本进行学习建模,并在测试集上对其预测性能进行比较。各算法的实验参数设置如下:对于ELM和OSELM,需要确定的模型参数仅有隐层节点个数n,为此,笔者在[
时间序列 | ELM n | R⁃ELM (n, ) | OSELM n | R⁃OSELM (n, ) | RR⁃OSELM(n, ) |
---|---|---|---|---|---|
Mackey⁃Glass | 100 |
(150, 1 | 140 |
(160, 1 |
(200, 1 |
Rossler | 120 |
(100, 1 | 110 |
(80, 1 |
(200, 1 |
Logistic | 90 |
(200, 1 | 110 |
(190, 1 |
(200, 1 |
Henon Lorenz Ikeda Quadratic |
110 150 190 140 |
(160, 1 (200, 1 (200, 1 (190, 1 |
170 160 190 200 |
(200, 1 (200, 1 (200, 1 (170, 1 |
(200, 1 (200, 1 (190, 1 (200, 1 |
与
时间序列 | 学习算法 | ||||
---|---|---|---|---|---|
ELM | R⁃ELM | OSELM | R⁃OSELM | RR⁃OSELM | |
Mackey⁃Glass | 6.63E-03 | 5.64E-03 | 6.95E-03 | 5.69E-03 | 8.45E-04 |
Rossler | 2.79E-02 | 4.70E-03 | 7.03E-03 | 4.79E-03 | 2.66E-03 |
Logistic | 8.52E-03 | 8.21E-03 | 1.22E-02 | 8.26E-03 | 3.74E-04 |
Henon Lorenz Ikeda Quadratic |
1.98E-02 5.80E-01 1.70E-01 4.28E-02 |
1.72E-02 5.30E-01 1.64E-01 3.80E-02 |
2.64E-02 6.42E-01 1.80E-01 5.24E-02 |
1.72E-02 5.25E-01 1.65E-01 3.86E-02 |
8.03E-04 2.51E-01 1.54E-01 4.82E-04 |
为增强OSELM在离群值环境下的鲁棒性,本文提出一种具有抗离群值能力的鲁棒正则化贯序超限学习机RR⁃OSELM。与原始OSELM算法完全使用最小二乘作为代价函数不同,RR⁃OSELM在代价函数中引入权值系数并基于样本的先验误差进行逆向加权计算,以抑制离群值残差对模型更新所造成的不利影响,从而有效降低了在线学习模型对于离群值的敏感性;同时RR⁃OSELM内置的正则化技术也保证了算法的持续稳定性。RR⁃OSELM的鲁棒性通过实验进行了验证,实验结果表明RR⁃OSELM确实具有较对比算法更强的离群值抵抗能力。
与目前常见的基于离线批处理学习方式的鲁棒学习模
参考文献
OLORUNNIMBE M K, VIKTOR H L, PAQUET E. Dynamic adaptation of online ensembles for drifting data streams[J]. Journal of Intelligent Information Systems, 2018, 50(2): 291⁃313. [百度学术] [Google Scholar]
MEJRI D, LIMAM M, WEIHS C. A new dynamic weighted majority control chart for data streams[J]. Soft Computing, 2018, 22(2): 511⁃522. [百度学术] [Google Scholar]
LI C, WEI F, DONG W, et al. Dynamic structure embedded online multiple⁃output regression for streaming data[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2019, 41(2): 323⁃336. [百度学术] [Google Scholar]
LIANG N Y, HUANG G B, SARATCHANDRAN P, et al. A fast and accurate online sequential learning algorithm for feedforward networks[J]. IEEE Transa⁃ctions on Neural Networks, 2006, 17(6): 1411⁃1423. [百度学术] [Google Scholar]
HUANG G B, ZHU Q Y, SIEW C K. Extreme learning machine: Theory and applications[J]. Neuro⁃computing, 2006, 70(1): 489⁃501. [百度学术] [Google Scholar]
ALI M, DEO R C, DOWNS N J, et al. Multi⁃stage hybridized online sequential extreme learning machine integrated with Markov chain Monte Carlo copula⁃Bat algorithm for rainfall forecasting[J]. Atmospheric Research, 2018, 213: 450⁃464. [百度学术] [Google Scholar]
ZHANG D, PENG X, PAN K, et al. A novel wind speed forecasting based on hybrid decomposition and online sequential outlier robust extreme learning machine[J]. Energy Conversion and Management, 2019, 180: 338⁃357. [百度学术] [Google Scholar]
NOBREGA J P, OLIVERRA A L. A sequential learning method with Kalman filter and extreme learning machine for regression and time series forecasting[J]. Neurocomputing, 2019, 337: 235⁃250. [百度学术] [Google Scholar]
GUO W, XU T, TANG K. M⁃estimator⁃based online sequential extreme learning machine for predicting chaotic time series with outliers[J]. Neural Computing & Applications, 2017, 28(12):4093⁃4110. [百度学术] [Google Scholar]
GUO W, XU T, TANG K, et al. Online sequential extreme learning machine with generalized regularization and adaptive forgetting factor for time⁃varying system prediction[J]. Mathematical Problems in Engineering, 2018(7): 1⁃22. [百度学术] [Google Scholar]
郭威, 徐涛, 于建江, 等. 基于M⁃estimator与可变遗忘因子的在线贯序超限学习机[J]. 电子与信息学报, 2018, 40(6): 1360⁃1367. [百度学术] [Google Scholar]
GUO Wei, XU Tao, YU Jianjiang, et al. Online sequential extreme learning machine based on m⁃estimator and variable forgetting factor[J]. Journal of Electronics & Information Technology, 2018, 40(6): 1360⁃1367. [百度学术] [Google Scholar]
LIAO B, ZHANG Z G, CHAN S C. A new robust Kalman filter⁃based subspace tracking algorithm in an impulsive noise environment[J]. IEEE Transactions on Circuits and Systems II: Express Briefs, 2010, 57(9): 740⁃744. [百度学术] [Google Scholar]
HUYNH HT, WON Y. Regularized online sequential learning algorithm for single⁃hidden layer feedforward neural networks[J]. Pattern Recognition Letters, 2011, 32(14): 1930⁃1935. [百度学术] [Google Scholar]
SUN L, CHEN B, TOH K A, et al. Sequential extreme learning machine incorporating survival error potential[J]. Neurocomputing, 2015, 155(5): 194⁃204. [百度学术] [Google Scholar]
ZHANG K, LUO M. Outlier⁃robust extreme learning machine for regression problems[J]. Neurocompu⁃ting, 2015, 151: 1519⁃1527. [百度学术] [Google Scholar]
BARRETO G A, BARROS A. A robust extreme learning machine for pattern classification with outliers[J]. Neurocomputing, 2016, 176: 3⁃13. [百度学术] [Google Scholar]
FRENAY B, VERLEYSEN M. Reinforced extreme learning machines for fast robust regression in the presence of outliers[J]. IEEE Transactions on Cyber⁃netics, 2016, 46(12): 3351⁃3363. [百度学术] [Google Scholar]
CHEN K, LV Q, LU Y, et al. Robust regularized extreme learning machine for regression using iteratively reweighted least squares[J]. Neurocomput⁃ing,2017, 230: 345⁃358. [百度学术] [Google Scholar]
LI G, NIU P. An enhanced extreme learning machine based on ridge regression for regression[J]. Neural Computing and Applications, 2013, 22(3/4): 803⁃810. [百度学术] [Google Scholar]
BHOTTO M Z A, ANTONIOU A. Robust recursive least⁃squares adaptive⁃filtering algorithm for impulsive⁃noise environments[J]. IEEE Signal Pro⁃cessing Letters, 2011, 18(3): 185⁃188. [百度学术] [Google Scholar]
GOLUB G H, VAN LOAN C F. Matrix computations [M]. Baltimore: JHU Press, 2012: 65. [百度学术] [Google Scholar]
HORATA P, CHIEWCHANWATTANA S, SUNAT K. Enhancement of online sequential extreme learning machine based on the householder block exact inverse QRD recursive least squares[J]. Neurocomputing, 2015, 149: 239⁃252. [百度学术] [Google Scholar]