网刊加载中。。。

使用Chrome浏览器效果最佳,继续浏览,你可能不会看到最佳的展示效果,

确定继续浏览么?

复制成功,请在其他浏览器进行阅读

抗离群值的鲁棒正则化贯序超限学习机  PDF

  • 郭威
  • 汤克明
  • 于建江
盐城师范学院信息工程学院,盐城,224002

中图分类号: TP181

最近更新:2019-10-29

DOI:10.16356/j.1005-2615.2019.05.017

  • 全文
  • 图表
  • 参考文献
  • 作者
  • 出版信息
目录contents

摘要

针对离群值环境下的在线学习问题,提出一种鲁棒正则化贯序超限学习机(Robust regularized online sequential extreme learning machine, RR⁃OSELM)。RR⁃OSELM以增量学习新样本的方式实现在线学习,并在学习过程中基于样本的先验误差进行逆向加权计算以降低学习模型对于离群值的敏感性;同时RR⁃OSELM通过融合使用Tikhonov正则化技术进一步增强了其在实际应用中的稳定性。实验结果表明,RR⁃OSELM具有较同类算法更好的鲁棒性和实用性,对于离群值环境下的在线建模与预测问题是积极有效的。

在线学习是当前机器学习研究领域的一个重要方向,其基本思想是随着数据样本的不断到达,学习器能够对当前样本进行“局部”学习并保持模型的同步更新。与采用批量计算模式的离线学习方法相比,在线学习方法能以增量的方式实现对数据样本的持续快速学习,为解决目前广泛存在的数据流在线建模与预测问题提供了天然的解决方[

1,2,3]。此外,在现实的在线应用中,由于机械故障、设备退化、人为错误等原因,实际采集的在线数据中不可避免会存在少量的离群值,离群值的存在会严重影响在线建模的准确性以及后续的预测效果。因此,如何增强在线学习算法对于离群值的抗干扰能力和鲁棒性是一个非常重要而现实的研究课题。

在线贯序超限学习机(Online sequential extreme learning machine, OSELM) 是近年来广受关注的一种新颖而实用的在线学习算[

4],该算法以超限学习机(Extreme learning machine, ELM)[5] 的逼近理论为基础,将单隐层前馈神经网络(Single layer feedforward networks, SLFNs)的训练问题转化为线性方程组的求解问题,并采用递归最小二乘(Recursive least squares, RLS)方法递推计算输出权值以实现算法的在线更新。相比其他常见的在线学习算法,OSELM不仅具有更好的泛化性能,而且在学习速度上优势明显,目前已在数据流在线建模与预测研究领域获得了成功应用,如降雨量预[6],风速预[7],时间序列预[8,9],时变系统预[10,11]等。然而,RLS方法对于噪声数据的天然敏感[12]也使得基于RLS的OSELM算法在噪声或离群值环境下的泛化性能将严重下降。为了增强OSELM对于噪声数据的处理能力,文献[13]提出了一种基于双目标优化的正则化OSELM算法(Regularized OSELM, R⁃OSELM),该算法在学习过程中同步追求训练残差和输出权值模的最小化,有效提高了模型的泛化性能和稳定性,并在一定程度上增强了对于噪声和离群值的抗干扰能力,但该算法并非解决离群值问题的针对性方法,其抗离群值能力相对现实需求仍然较差。结合噪声补偿机制,文献[14]提出了一种基于最小均方差的在线超限学习机ESEP⁃ELM,并将其应用于含离群值混沌时间序列的在线建模与预测。实验结果显示,ESEP⁃ELM具有较原始OSELM更好的稳定性和更高的计算效率,并且对离群值有较强的抵抗能力,但其学习精度不如OSELM。近年来,学者们以超限学习理论为基础并结合不同的优化学习方法,提出了多种抗离群值的鲁棒ELM算[15,16,17,18,19],但这些算法均基于离线学习方式,在在线情形下并不适用。

针对离群值环境下的在线学习问题,本文提出一种具有抗离群值能力的鲁棒正则化贯序超限学习机(Robust regularized online sequential extreme learning machine, RR⁃OSELM)。RR⁃OSELM继承了OSELM贯序学习的基本思想,并在在线学习过程中基于样本的先验误差进行逆向加权计算,以有效抑制离群值对学习模型的影响;同时,RR⁃OSELM通过引入Tikhonov正则化技术使得算法具有良好的稳定性。仿真实验验证了RR⁃OSELM的鲁棒性和实用性。

1 OSELM算法

OSELM[

4]是ELM[5]的在线学习版本。对于N个任意的不同样本(xi,yi)Rd×Rm,具有n个隐层节点并且隐层激活函数为g(x)的SLFNs可表示为

j=1nβjgj(xi)=j=1nβjG(aj,bj,xi)i=1,2,,N (1)

式中:ajbj分别是第j个隐层节点的输入权值和偏移, βj是连接第j个隐层节点与输出层的输出权值, gj(xi)=G(aj,bj,xi)表示第j个隐层节点关于输入向量xi的输出。

该SLFNs能以零误差逼近这N个样本,即存在(aj ,bj)及βj使得

j=1nβjG(aj,bj,xi)=yi     i=1,2,,N (2)

式(2)可写成如下矩阵形式

Hβ=Y (3)
H=h1hN=G(a1,b1,x1)G(an,bn,x1)G(a1,b1,xN)G(an,bn,xN)N×n (4)
β=β1TβnTn×m,Y=y1TyNTN×m (5)

根据文献[

5]中的插值理论,只要g(x)无限可微,SLFNs的隐层节点参数(aj ,bj)可随机生成并保持不变,则H为一常数矩阵,这样就将SLFNs的训练问题等价转化为求解线性系统Hβ=Y的最小二乘解β̂

Hβ̂-Y=minβHβ-Y (6)

ELM采用最小模最小二乘解作为网络的输出权值,即

β̂=HY (7)

式中,HH的Moore⁃Penrose广义逆。若HTH非奇异,式(7)可进一步表示为

β̂=HY=HTH-1HTY (8)

为了满足在线学习的需要,Liang[

4]将贯序学习的思想用于ELM并提出一种可增量学习训练样本的在线学习算法OSELM,其学习过程描述如下。

在初始化阶段,对于给定的初始训练子集Ωk-1={(xi,yi)|i=1,,k-1}, 根据式(8)初始的输出权值可表示为

βk-1=Pk-1Hk-1TYk-1 (9)

式中Pk-1=(Hk-1THk-1)-1Hk-1=h1Th2Thk-1TTYk-1=[y1y2yk-1]T

在在线学习阶段,每当获取到一个新的训练样本(xk,yk), 则按照下式递推计算输出权值

Pk=Pk-1-Pk-1hkThkPk-11+hkPk-1hkTβk=βk-1+PkhkT(yk-hkβk-1) (10)

式中hk=[G(a1,b1,xk)G(an,bn,xk)]

2 鲁棒正则化贯序超限学习机

2.1 RR⁃OSELM学习模型

根据OSELM算[

4]的实现过程可知,原始OSELM算法以最小二乘(Least squares, LS)作为学习准则,追求误差平方和的最小化,即其代价函数可表示为

J(βk)=Hβk-Y2=i=1kyi-hiβk2 (11)

然而,LS学习准则对于离群值非常敏[

12]并易于生成过拟合的学习模型,从而导致 OSELM 在离群值环境下的泛化性能将严重下降。作为改进算法,R⁃OSELM[13] 借鉴统计学习理论中的结构风险最小化原理,在学习过程中同时追求经验风险(训练残差)和结构风险(输出权值的模)的最小化,即其对应的代价函数为

JRβk=Hβk-Y2+δβk2=i=1kyi-hiβk2+δβk2 (12)

式中δ为权衡这两种风险的正则化参数。尽管R⁃OSELM通过使用正则化方法有效避免了迭代学习过程中潜在的病态矩阵求逆问题,从而增强了算法的稳定性,并在一定程度上减轻了对于离群值的敏感性,但其抗离群值能力仍然非常有限。直观上分析,若当前训练样本(xk,yk)为离群值样本,则其对应的训练残差yk-hkβk将严重偏离正常范围,此时代价函数JR(βk)在整体上是有偏的,显然在此情形下训练得到的学习模型也将是不准确的。

为进一步增强 R⁃OSELM 对于离群值的鲁棒性,本文引入 Tikhonov正则化技术和样本加权的思想,提出一种新的鲁棒正则化 OSELM 学习模型(RR⁃OSELM)。该模型对应的代价函数如下

JRR(βk)=i=1kφiyi-hiβk2+δβk2 (13)

式中φi为一个非负的权值系数,用来对不同的学习样本进行加权。本文借鉴文献[

20]中的方法,基于当前样本的先验误差进行逆向加权计算,以对离群值样本所产生的较大扰动误差进行反向抑制,从而减轻离群值对学习模型所带来的不利影响,即对于当前学习样本(xk,yk),其对应的权值为

φk=1hkek1 (14)

式中ek=yk-hkβk-1为当前样本的先验误差。这里注意到,φk的计算结果可能大于1,而这会影响算法的收敛性,为解决此问题,本文使用

φk=min1,1hkek1 (15)

2.2 RR⁃OSELM模型的递归求解

下面将推导出RR⁃OSELM模型中输出权值βk的递推计算公式以满足在线学习的要求。让代价函数JRR(βk)βk求微分并令结果为零,可得法方程

Rkβk=Φk (16)

式中

Rk=i=1kφihiThi+δI=Rk-1+φkhkThk (17)
Φk=i=1kφihiTyi=Φk-1+φkhkTyk (18)

对式(17)应用Sherman⁃Morrison公[

21]可得

Rk-1=(Rk-1+φkhkThk)-1=Rk-1-1-φkRk-1-1hkThkRk-1-11+φkhkRk-1-1hkT (19)

Pk=Rk-1,则式(19)可重写为

Pk=Pk-1-φkPk-1hkThkPk-11+φkhkPk-1hkT (20)

综合式(16)和式(18),βk可表示为

βk=Rk-1Φk=Pk(Φk-1+φkhkTyk)=Pk(Rk-1βk-1+φkhkTyk) (21)

将式(17)代入式(21)中,有

βk=Pk((Rk-φkhkThk)βk-1+φkhkTyk)=βk-1-φkPkhkThkβk-1+φkPkhkTyk=βk-1+φkPkhkT(yk-hkβk-1)=βk-1+φkPkhkTek (22)

综上,RR⁃OSELM模型中输出权值βk的递推计算公式可最终表示为

Pk=Pk-1-φkPk-1hkThkPk-11+φkhkPk-1hkTβk=βk-1+φkPkhkTek (23)

式中φk由式(15)计算得到,并且当φk1时,RR⁃OSELM退化R⁃OSELM。

2.3 RR⁃OSELM的鲁棒性分析与比较

根据式(10),OSELM(及R⁃OSELM)算法中输出权值的微分向量可表示为

Δβk=βk-βk-1=PkhkTek (24)

则其L1范数为

Δβk1=ekPkhkT1 (25)

由式(25)容易看出,受离群值样本扰动误差ek的影响,OSELM(及R⁃OSELM)算法中输出权值的微分向量的L1范数将快速增加,导致学习模型不够准确。

类似地,根据式(23)可以得到RR⁃OSELM算法中输出权值的微分向量的L1范数为

Δβk1=φkPkhkTek1=PkhkT1hk1 (26)

可以看到离群值样本所带来的扰动误差ek并没有对Δβk1造成直接影响。使用著名的向量范数不等式

1nΔβk1Δβk2Δβk1 (27)

可进一步得到RR⁃OSELM算法中ΔβkL2范数也是有界的,即RR⁃OSELM算法对离群值具有良好的抗干扰能力和鲁棒性。

3 实 验

为了评估RR⁃OSELM算法的鲁棒性,本文通过1个人工函数逼近问题和7个标杆混沌时间序列预测问题对其进行了实验验证,并将实验结果与ELM[

5],R⁃ELM[19],OSELM[4],R⁃OSELM[13]进行比较。对于每个测试实例,报告的实验结果为20次独立实验的平均值,算法性能评价标准采用均方根误差(RMSE)

RMSE=1Ni=1N(yi-ŷi)2 (28)

式中:yiŷi分别为真实值和预测值,N为测试样本的数目。

3.1 “SinC”函数逼近

“SinC”函数逼近是评估学习模型学习拟合能力的常用实[

5],其函数表达式为

y(x)=(sinx)/xx01      x=0 (29)

根据式(29)分别生成各包含5 000个数据样本 (xi , yi) 的训练集和测试集,其中自变量xi为区间 (-10, 10) 内的随机数。为了检验各种算法对于离群值的鲁棒性,训练集中10%的正常样本被离群值样本所替换,即将这些样本的输出yi用范围在(-2, 2)之间的随机数来代替。

本实例的实验设置如下。参照文献[

5],所有学习算法的隐层节点个数统一设置为20;对于OSELM,R⁃OSELM和RR⁃OSELM,初始训练样本个数设置为100;此外,对于R⁃ELM,R⁃OSELM和RR⁃OSELM,笔者验证了其在不同正则化参数条件下的泛化性能,并给出了最优条件下的实验结果。为了便于比较,每种算法均在训练集包含离群值和不包含离群值两种情形下分别进行对照实验,并收集各自情形下的测试RMSE和训练时间。

根据OSELM算法的稳定性分[

22],该算法的泛化性能对隐层节点个数较为敏感,而在当前实验条件下OSELM的性能极不稳定,其20次实验的平均测试误差超出了合理的范围,故本实例中略去了OSELM的实验结果而仅给出其他4种算法的实验结果,如表1所示。比较4种算法在非离群值和离群值环境下的测试结果可得,当训练集中包含离群值时,ELM,R⁃ELM,R⁃OSELM的预测误差增加了数十倍,而RR⁃OSELM的测试RMSE仅为原来的1.7倍。另外,在训练时间方面,ELM 和R⁃ELM这两种离线算法的训练时间明显少于R⁃OSELM和RR⁃OSELM这两种在线算法的训练时间;尽管RR⁃OSELM在在线学习过程中需要进行额外的加权计算,但其在线学习时间仅比R⁃OSELM稍长。总之,与R⁃OSELM相比,RR⁃OSELM能在少量增加学习时间的前提下显著增强算法对于离群值的鲁棒性。

表1 “SinC”函数逼近问题的性能比较
Tab.1 Performance comparisons for learning “SinC”
算法测试 RMSE训练时间/s
无离群值有离群值无离群值有离群值

ELM

R⁃ELM

R⁃OSELM

2.62E-04

8.96E-04

1.78E-03

2.05E-02

1.74E-02

1.72E-02

0.010 93

0.005 46

0.224 37

0.012 50

0.003 12

0.232 18

RR⁃OSELM 1.74 E-03 2.91E-03 0.246 09 0.259 06

为了更直观地比较R⁃OSELM和RR⁃OSELM对于离群值的抵抗能力,给出了这两种学习算法在训练集不包含离群值和包含离群值两种情形下对“SinC”函数进行逼近的典型输出曲线图,分别如图1,2所示。由图1容易看出,R⁃OSELM在非离群值环境下的实际输出与期望输出拟合较好,但在训练集包含离群值时,其实际输出为了拟合无效的离群值数据而严重偏离期望输出;相对地,图2所示的拟合曲线表明RR⁃OSELM在两种情形下都具有良好的学习拟合效果,这进一步验证了本文提出的RR⁃OSELM算法对于离群值具有较好的抗干扰能力。

图 1 R⁃OSELM的函数逼近结果

Fig.1 Function approximation results of R⁃OSELM

图 2 RR⁃OSELM的函数逼近结果

Fig.2 Function approximation results of RR⁃OSELM

3.2 混沌时间序列预测

本小节选择Mackey⁃Glass,Rossler,Logistic,Henon,Lorenz,Ikeda和Quadratic这7个经典的混沌时间序列作为实验数据集,时间序列数据采用四阶Runge⁃Kutta算法生成得到。为评估各种算法对于离群值的鲁棒性,在各时间序列的训练集中根据其大小不同添加了一定数量的离群值,这里离群值由随机数发生器随机生成,生成范围为各训练集中的最小值与最大值之间的开区间。表2给出了7个时间序列数据集的完整描述,其中dτ分别表示对时间序列进行相空间重构的嵌入维数和时间延迟。

表2 数据集描述
Tab.2 Dataset description
时间序列训练样本测试样本离群值个数(d,τ)
Mackey⁃Glass 1 000 500 8 (17, 1)
Rossler 1 500 500 13 (1, 5)
Logistic 1 500 500 13 (4, 1)

Henon

Lorenz

Ikeda

Quadratic

1 500

1 500

1 500

1 500

500

500

500

500

13

13

13

13

(4, 1)

(9, 1)

(5, 1)

(5, 1)

对于上述包含离群值的时间序列数据集,分别使用ELM,R⁃ELM,OSELM,R⁃OSELM和RR⁃OSELM 5种算法对训练样本进行学习建模,并在测试集上对其预测性能进行比较。各算法的实验参数设置如下:对于ELM和OSELM,需要确定的模型参数仅有隐层节点个数n,为此,笔者在[

10,200]区间内以10为间隔逐渐增加n,同时记录算法在不同n下的预测RMSE,并报告20次实验中平均预测误差最小的实验结果。对于R⁃ELM,R⁃OSELM和RR⁃OSELM,本文采用网格遍历法来评估算法在不同隐层节点个数n和正则化参数δ的二元参数组合下的预测性能:其中n={10,20,…,190,200},δ={10-10,10-9,…,104,105},平均预测误差最小的实验结果及其对应的模型参数将被报告。另外,对于OSELM,R⁃OSELM,RR⁃OSELM这3种在线学习算法,初始训练样本个数统一设置为200。各种算法最终选择得到的最优模型参数如表3所示。

表3 各种算法的模型参数
Tab.3 Parameter values of each algorithm
时间序列ELM nR⁃ELM (n, δ)OSELM nR⁃OSELM (n, δ)RR⁃OSELM(n, δ)
Mackey⁃Glass 100 (150, 10-4) 140 (160, 10-4) (200, 10-8)
Rossler 120 (100, 10-8) 110 (80, 10-8) (200, 10-7)
Logistic 90 (200, 10-8) 110 (190, 10-8) (200, 10-8)

Henon

Lorenz

Ikeda

Quadratic

110

150

190

140

(160, 10-6)

(200, 10-1)

(200, 10-8)

(190, 10-4)

170

160

190

200

(200, 10-6)

(200, 10-1)

(200, 10-7)

(170, 10-4)

(200, 10-8)

(200, 10-4)

(190, 10-8)

(200, 10-8)

表3对应,表4给出了各种算法在测试集上的最优预测RMSE。由表4可以看出,在所有7个包含离群值的时间序列数据集上,ELM、OSELM的预测结果最差,采用正则化技术的R⁃ELM、R⁃OSELM的预测结果稍好,而本文提出的RR⁃OSELM总能够取得最好的预测性能,表现出更强的鲁棒性。

表4 各种算法的预测RMSE比较
Tab.4 Prediction RMSE comparisons of each algorithm
时间序列学习算法
ELMR⁃ELMOSELMR⁃OSELMRR⁃OSELM
Mackey⁃Glass 6.63E-03 5.64E-03 6.95E-03 5.69E-03 8.45E-04
Rossler 2.79E-02 4.70E-03 7.03E-03 4.79E-03 2.66E-03
Logistic 8.52E-03 8.21E-03 1.22E-02 8.26E-03 3.74E-04

Henon

Lorenz

Ikeda

Quadratic

1.98E-02

5.80E-01

1.70E-01

4.28E-02

1.72E-02

5.30E-01

1.64E-01

3.80E-02

2.64E-02

6.42E-01

1.80E-01

5.24E-02

1.72E-02

5.25E-01

1.65E-01

3.86E-02

8.03E-04

2.51E-01

1.54E-01

4.82E-04

4 结 论

为增强OSELM在离群值环境下的鲁棒性,本文提出一种具有抗离群值能力的鲁棒正则化贯序超限学习机RR⁃OSELM。与原始OSELM算法完全使用最小二乘作为代价函数不同,RR⁃OSELM在代价函数中引入权值系数并基于样本的先验误差进行逆向加权计算,以抑制离群值残差对模型更新所造成的不利影响,从而有效降低了在线学习模型对于离群值的敏感性;同时RR⁃OSELM内置的正则化技术也保证了算法的持续稳定性。RR⁃OSELM的鲁棒性通过实验进行了验证,实验结果表明RR⁃OSELM确实具有较对比算法更强的离群值抵抗能力。

与目前常见的基于离线批处理学习方式的鲁棒学习模[

15,16,17,18,19]相比,RR⁃OSELM最突出的优势在于其在保持OSELM优越的在线学习能力的同时还兼具良好的抗离群值能力,特别适用于训练样本连续到达且包含离群值的在线学习问题。

参考文献

1

OLORUNNIMBE M K, VIKTOR H L, PAQUET E. Dynamic adaptation of online ensembles for drifting data streams[J]. Journal of Intelligent Information Systems, 2018, 50(2): 291313. [百度学术]  [Google Scholar]

2

MEJRI D, LIMAM M, WEIHS C. A new dynamic weighted majority control chart for data streams[J]. Soft Computing, 2018, 22(2): 511522. [百度学术]  [Google Scholar]

3

LI C, WEI F, DONG W, et al. Dynamic structure embedded online multiple⁃output regression for streaming data[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2019, 41(2): 323336. [百度学术]  [Google Scholar]

4

LIANG N Y, HUANG G B, SARATCHANDRAN P, et al. A fast and accurate online sequential learning algorithm for feedforward networks[J]. IEEE Transa⁃ctions on Neural Networks, 2006, 17(6): 14111423. [百度学术]  [Google Scholar]

5

HUANG G B, ZHU Q Y, SIEW C K. Extreme learning machine: Theory and applications[J]. Neuro⁃computing, 2006, 70(1): 489501. [百度学术]  [Google Scholar]

6

ALI M, DEO R C, DOWNS N J, et al. Multi⁃stage hybridized online sequential extreme learning machine integrated with Markov chain Monte Carlo copula⁃Bat algorithm for rainfall forecasting[J]. Atmospheric Research, 2018, 213: 450464. [百度学术]  [Google Scholar]

7

ZHANG D, PENG X, PAN K, et al. A novel wind speed forecasting based on hybrid decomposition and online sequential outlier robust extreme learning machine[J]. Energy Conversion and Management, 2019, 180: 338357. [百度学术]  [Google Scholar]

8

NOBREGA J P, OLIVERRA A L. A sequential learning method with Kalman filter and extreme learning machine for regression and time series forecasting[J]. Neurocomputing, 2019, 337: 235250. [百度学术]  [Google Scholar]

9

GUO W, XU T, TANG K. M⁃estimator⁃based online sequential extreme learning machine for predicting chaotic time series with outliers[J]. Neural Computing & Applications, 2017, 28(12):40934110. [百度学术]  [Google Scholar]

10

GUO W, XU T, TANG K, et al. Online sequential extreme learning machine with generalized regularization and adaptive forgetting factor for time⁃varying system prediction[J]. Mathematical Problems in Engineering, 2018(7): 122. [百度学术]  [Google Scholar]

11

郭威, 徐涛, 于建江, . 基于M⁃estimator与可变遗忘因子的在线贯序超限学习机[J]. 电子与信息学报, 2018, 40(6): 13601367. [百度学术]  [Google Scholar]

GUO Wei, XU Tao, YU Jianjiang, et al. Online sequential extreme learning machine based on m⁃estimator and variable forgetting factor[J]. Journal of Electronics & Information Technology, 2018, 40(6): 13601367. [百度学术]  [Google Scholar]

12

LIAO B, ZHANG Z G, CHAN S C. A new robust Kalman filter⁃based subspace tracking algorithm in an impulsive noise environment[J]. IEEE Transactions on Circuits and Systems II: Express Briefs, 2010, 57(9): 740744. [百度学术]  [Google Scholar]

13

HUYNH HT, WON Y. Regularized online sequential learning algorithm for single⁃hidden layer feedforward neural networks[J]. Pattern Recognition Letters, 2011, 32(14): 19301935. [百度学术]  [Google Scholar]

14

SUN L, CHEN B, TOH K A, et al. Sequential extreme learning machine incorporating survival error potential[J]. Neurocomputing, 2015, 155(5): 194204. [百度学术]  [Google Scholar]

15

ZHANG K, LUO M. Outlier⁃robust extreme learning machine for regression problems[J]. Neurocompu⁃ting, 2015, 151: 15191527. [百度学术]  [Google Scholar]

16

BARRETO G A, BARROS A. A robust extreme learning machine for pattern classification with outliers[J]. Neurocomputing, 2016, 176: 313. [百度学术]  [Google Scholar]

17

FRENAY B, VERLEYSEN M. Reinforced extreme learning machines for fast robust regression in the presence of outliers[J]. IEEE Transactions on Cyber⁃netics, 2016, 46(12): 33513363. [百度学术]  [Google Scholar]

18

CHEN K, LV Q, LU Y, et al. Robust regularized extreme learning machine for regression using iteratively reweighted least squares[J]. Neurocomput⁃ing,2017, 230: 345358. [百度学术]  [Google Scholar]

19

LI G, NIU P. An enhanced extreme learning machine based on ridge regression for regression[J]. Neural Computing and Applications, 2013, 22(3/4): 803810. [百度学术]  [Google Scholar]

20

BHOTTO M Z A, ANTONIOU A. Robust recursive least⁃squares adaptive⁃filtering algorithm for impulsive⁃noise environments[J]. IEEE Signal Pro⁃cessing Letters, 2011, 18(3): 185188. [百度学术]  [Google Scholar]

21

GOLUB G H, VAN LOAN C F. Matrix computations [M]. Baltimore: JHU Press, 2012: 65. [百度学术]  [Google Scholar]

22

HORATA P, CHIEWCHANWATTANA S, SUNAT K. Enhancement of online sequential extreme learning machine based on the householder block exact inverse QRD recursive least squares[J]. Neurocomputing, 2015, 149: 239252. [百度学术]  [Google Scholar]

您是第位访问者
网站版权 © 南京航空航天大学学报
技术支持:北京勤云科技发展有限公司
请使用 Firefox、Chrome、IE10、IE11、360极速模式、搜狗极速模式、QQ极速模式等浏览器,其他浏览器不建议使用!