网刊加载中。。。

使用Chrome浏览器效果最佳,继续浏览,你可能不会看到最佳的展示效果,

确定继续浏览么?

复制成功,请在其他浏览器进行阅读

基于字典学习的混合采样数据分类方法  PDF

  • 杨倩 1
  • 于洪 1
  • 李劼 2
  • 谢永芳 3
1. 重庆邮电大学计算智能重庆市重点实验室, 重庆, 400065; 2. 中南大学冶金与环境学院, 长沙, 410083; 3. 中南大学信息科学与工程学院, 长沙, 410083

中图分类号: TP391

最近更新:2019-10-29

DOI:10.16356/j.1005-2615.2019.05.006

  • 全文
  • 图表
  • 参考文献
  • 作者
  • 出版信息
目录contents

摘要

混合采样数据不仅仅具有不同采样频率数据之间特征集合不同,还有样本数量不一致等特点,传统的分类方法不能直接使用。因此,本文提出一种基于Fisher判别准则字典学习的混合采样数据分类方法以处理采样数据的分类任务。该模型巧妙借助处理多视图数据的分类思想,利用基于Fisher判别准则的字典学习方法,生成的结构化字典的每个原子与数据的类标签相关,同时采用Fisher判别准则使类内散度更小,类间散度更大来约束编码系数矩阵,从而大大提升分类性能。此外,本文针对混合采样数据的样本数量不一致特点,设计了混合采样数据判别分析模型的分类方案。最后实验结果验证了本文方法的有效性。

大数据时代已经来临,随着各种数据采集设备(如红外线摄像机和网络摄像机)或是不同的媒介(如文本、视频和音频)的出现和发展,数据的来源、形式越来越多样[

1]。在实际生活中,数据的采集频率会因为采集成本代价不同而高低有别,例如获取工业生产铝的电解槽数据时,电解质水平、铁含量和硅含量等数据需要专家进行实验采集,成本高、代价大,采样频率低,而电解槽工作电压、工作电流和针振等数据可以通过传感器实时上传,成本低,采样频率高。把这类描述同一对象,而来自不同采样频率、有不同特征集合的数据称为混合采样数据。传统的处理混合采样数据的一种方法是转换高频数据,使之与低频数据的采样频率相匹[2],即将混合采样数据处理成同低频数据,然而这种方式不可避免的存在高频数据信息丢失的问题。因此,本文方法不采用对混合采样数据做同频处理的方式,而是希望尽可能地利用原始数据达到提升混合采样数据分类性能的目的。

受多视图数据特点的启发,我们认为混合采样数据与多视图数据之间有一定的对应关系。混合采样数据的多个采样频率数据、不同采样频率下的不同特征集合就对应着多视图数据的多个视图数据、不同视图下的不同特征集合。因此,本文欲借鉴处理多视图数据的思想或方法,来解决混合采样数据分类问题。

多视图学习的重点是揭示不同视图的多个异构数据表的相关[

3]。近年来,字典学[4,5]已经成为多视图数据分类的热点研究方法。Yang[6]引入Fisher判别准则,提出Fisher判别字典学习方法(Fisher discrimination dictionary learning, FDDL),构建字典的列向量与类标签相对应的结构化字典,并验证了判别保真项和Fisher判别准则都有提升分类准确性的优势。Zhuang[7]利用样本类标签信息学习多模态判别字典和不同模态之间的映射函数以恢复缺失模态。基于Hilbert–Schmidt独立性准则,Gangeh[8]提出两个多视图字典学习技术,两个技术的不同之处在于:(1)对每个视图学习一个字典,并在学习字典的空间融合稀疏系数矩阵;(2)在所有视图的特征融合空间学习一个字典和相应的系数矩阵。Jing[9]分析不同视图对应的字典间原子向量的不相关性约束,提出不相关多视图判别字典学习方法(Uncorrelated multi‑view discrimination dictionary learning, UMD2L),学习多个视图的不相关判别字典。随后该研究小组Wu[10]提出多视图低秩字典学习方法(Multi‑view low‑rank dictionary learning, MLDL),为不同视图不同类的子字典添加低秩约束以适应噪声数据,同时增加不同视图的字典不冗余约束,使视图间字典相互独立。Wu[11]提出一种学习多视图间共享结构化字典方法,同时将视图间字典结构不相关性引入共享字典学习的过程,从而更有效地利用不同视图的互补信息。Wang[12]将分析字典学习引入多视图分类任务场景,应用边缘化目标函数学习策略来改进模型的分类性能。以往的多视图字典学习方法训练和测试阶段耗时严重,主要是因为采用l0l1范数进行稀疏约束,所以Wu[13]又提出了多视图综合与分析字典学习(Multi‑view synthesis and analysis dictionaries learning, MSADL),每个视图的判别字典包含一个结构化综合字典和一个分析字典,由综合字典获得每个类簇的样本重构信息,分析字典获得具判别信息的编码系数矩阵。字典学习逐渐成为大数据分析与处理中的重要话题与研究方向,但是,很少有研究将字典学习运用到混合采样数据分类任务中。

混合采样数据分类任务的重点是探索不同采样频率数据的相关性,极大限度地利用原始数据进行学习。因此,本文欲借鉴多视图字典学习方法,提出一种基于字典学习的混合采样数据分类方法,旨在学习多个采样频率数据的判别子字典,和以Fisher判别准则约束的更具判别信息的编码系数矩阵,以提升模型的分类性能。

1 预备知识

1.1 字典学习

给定数据样本A=[a1,a2,,an]ARn×d,字典学习的目标任务是寻找字典D=[d1,d2,,dn],DRn×d,以及对应的系数矩阵X=[x1,x2,,xd]XRd×d,使得每个数据样本能更好地被字典重构,即ai=Dxii=1,2,,n。字典学习解决以下优化问题

{D̂,X̂}=argminD,XA-DXF2+λX1 (1)

显然式(1)的第1项是希望由系数矩阵X能很好地重构数据样本A,第2项则是希望系数矩阵X尽量稀疏,可以使用KSVD算[

14]或MOD算[15]求解上述优化问题中字典和系数矩阵变量。

1.2 Fisher判别字典学习

Fisher判别字典学习(Fisher discrimination dictionary learning, FDDL)旨在学习一个结构化字典D=[D1,D2,,DC]Di是每个类簇的字典,C是样本的总类簇数。给定训练样本A=[A1,A2,,AC]Ai是第i类训练样本,定义X是样本矩阵A在字典D上的编码系数矩阵,X=[X1,X2,,XC]Xi是第i类训练样本Ai在字典D上的编码。FDDL的目标函数形式为

minD,Xr(Ai,D,Xi)+λ1X1+λ2(tr(SW(X)-SB(X))+ηXF2) (2)

FDDL目标函数的第1项是1个保真项r(Ai,D,Xi)=Ai-DXiF2+Ai-DiXiiF2+j=1jiCDjXijF2,除了要求字典D能重构第i类训练样本Ai,还要子字典Di也能很好地重构Ai,且其他子字典不能重构Ai

SW(X)=i=1CxkXi(xk-mi)(xk-mi)TSB(X)=i=1Cni(mi-m)(mi-m)T (3)

第3项类内散度SW(X)和类间散度SB(X)是为了约束编码系数矩阵,mim分别是编码系数矩阵XiX的均值向量,ni表示第i类训练样本Ai的样本数量。

1.3 不相关多视图判别字典学习

给定M个视图数据Ak(k=1,,M),不相关多视图判别字典学习(Uncorrelated multi‑view discrimination dictionary learning, UMD2L)旨在对每个视图学习视图间不相关的字典Dk(k=1,,M)和相应的系数矩阵Xk(k=1,,M)。UMD2L的目标函数形式如

minD1,,DMX1,,XMk=1Mi=1Cq(Aki,Dk,Xki)+λk=1MXk1 s.t.  Corr(Dk,Dl)=0,lk   (4)

式中:第1项是1个判别保真项,q(Aki,Dk,Xki)=Aki-DkXkiF2+Aki-DkiXkiiF2+j=1jiCDkjXkijF2,要求字典Dk有能力重构AkC是样本的总类簇数,AkiAk的第i类训练样本,DkiDk的第i类子字典,Xki定义为样本Aki在字典Dk上的编码系数矩阵,Xkij定义为样本Aki在字典Dkj上的编码系数矩阵。Corr(Dk,Dl)=0表示不同视图间字典DkDl的不相关约束,有Corr(Dk,Dl)=i=1Nkj=1NlCorr(dki,dlj)Nk·NlNkNl分别表示字典Dk和字典Dl的原子数。Corr(dki,dlj)=(dki-d¯ki·I)T(dlj-d¯lj·I)dki-d¯ki·I·dlj-d¯lj·I表示了dki(字典Dk的第i个字典原子)和dlj(字典Dl的第j个字典原子)的相关性,d¯kid¯li分别代表两个原子的均值。

2 混合采样数据分类模型

本节将多视图分类的思想融入混合采样数据分类模型中,首先系统地总结了混合采样数据分类模型的基本框架,然后分别描述了目标函数的判别保真项和判别系数项,随后给出了模型的目标函数,最后提出了混合采样数据分类方案。

2.1 模型框架

图1系统地总结了所提模型的主要框架,把它分为两个阶段:字典学习阶段和样本分类阶段。在字典学习阶段,假设训练样本有H个采样频率不同的数据集,Ak(k=1,,H),利用1.2节中判别保真项和1.3节中判别系数项两个原则,根据2.4节的目标函数学习每个采样频率数据集对应的每个类簇的子字典Dki和编码系数矩阵Xki。在样本的分类阶段,与传统的测试样本不同,混合采样数据的测试样本会出现采样数据空缺现象,例如图1中分类阶段样本2在第3个采样频率数据集中没有对应值,样本3在第2个和第3个采样频率数据集中没有对应值。所以在2.5节,根据混合采样数据特点设计了混合采样数据的分类方案,利用对应采样频率数据的字典Dk对测试样本z进行稀疏编码,得到每个采样频率数据对应的编码向量vk(k=1,,h),再利用子字典Dki和样本的编码向量判断样本与哪个类簇的重构误差最小,则表示样本属于该类簇。

图1 混合采样数据分类模型

Fig.1 Classification model for mixed sampling data

2.2 判别保真项

假设训练数据有H个采样频率数据,定义为Ak(k=1,,H)。对于第k个采样频率数据,Aki表示第i类训练样本DkiDkj分别表示与第i类和第j类相关的类簇子字典。若Xki定义为Aki在字典Dk上的编码系数矩阵,有Xki=[Xki1,Xki2,,XkiC],且Xkij表示为样本Aki在子字典Dkj上的编码系数矩阵,AkiDkXki=Dk1Xki1++DkiXkii++DkCXkiCC表示样本的类簇数。

目标函数的判别保真项应该遵循以下3个原则:(1)对于第k个采样频率数据,字典Dk应该具备重构样本Aki的能力,于是应该使误差项Aki-DkXkiF2最小化。(2)与第i类相关的子字典Dki应该具备重构样本Aki的能力,于是应该使误差项Aki-DkiXkiiF2最小化。(3)与第i类相关的其他类子字典Dkj不应具备重构样本Aki的能力,所以应该使DkjXkijF2最小化,从而使第i类子字典Dki对样本Aki重构所占比重最大。判别保真项定义为

r(Aki,Dk,Xki)=Aki-DkXkiF2+Aki-DkiXkiiF2+j=1jiCDkjXkijF2 (5)

2.3 判别系数项

为了提升模型的分类性能,使字典Dk更具判别性,可以借助Fisher判别准则约束编码系数矩阵,最小化编码系数矩阵Xk的类内散度SW(Xk),最大化类间散度SB(Xk),其定义如下

SW(Xk)=i=1CxwXki(xw-mki)(xw-mki)TSB(Xk)=i=1Cnki(mki-mk)(mki-mk)T (6)

式中:mkimk分别表示第k个采样频率数据第i类编码系数矩阵XkiXk的均值向量,nki是样本Aki的样本数量。判别系数项要求类内散度SW(Xk)最小化,类间散度SB(Xk)最大化,很显然,如果直接定义f(Xk)tr(SW(Xk))-tr(SB(Xk)),则f(Xk)是一个非凸且不稳定的函数,所以在判别系数项后增加一个弹性项XkF2使其满足凸优化条件,文献[

6]已证明判别系数项的凸性。判别系数项定义为

f(Xk)=tr(SW(Xk))-tr(SB(Xk))+ηXkF2 (7)

2.4 目标函数

结合判别保真项式(5)和判别系数项式(7),混合采样数据判别分析模型的目标函数形式化定义为

J(D1,,DH,X1,,XH)=argminD1,,DHX1,,XHk=1Hi=1Cr(Aki,Dk,Xki)+λ1k=1HXk1+λ2k=1Hf(Xk) (8)

2.5 混合采样数据分类方案

当混合采样数据对应各采样频率数据的类簇子字典Dki学习完成后,模型进入分类阶段。在文献[

16]中,稀疏表示分类法(Sparse representation based classification, SRC)用原始各类簇样本作为结构化子字典,来编码测试样本,如果哪个类簇子字典对样本的重构误差越小,则表明样本属于该类簇。借鉴SRC分类方法和多视图分类思想,考虑到混合采样数据与多视图数据的不同之处,在于不同采样频率对应的数据集样本数量不一致,所以在测试阶段每个测试样本不一定涵盖所有采样频率对应数据,即测试样本z={z1,z2,,zh}hH。那么zk在字典Dk上的编码向量可以通过下式求解

(v̂1,v̂2,,v̂h)=argminv1,...,vh{k=1h(zk-Dkvk22+βvk1)} (9)

式中:vk(k=1,,h) 是样本zk在字典Dk上的编码向量。定义v̂k=[v̂k1;v̂k2;;v̂kC]v̂k1对应样本zk在字典Dki上的编码向量。当测试样本对不同采样频率数据上字典进行的编码系数向量{v̂1,,v̂h}产生,将其应用到如下分类方案中,对给定测试样本zk,样本对每个类的重构误差计算为

ei=k=1hzk-Dkiv̂ki22+wv̂k-mki2 (10)
identity(z)=argmini{ei} (11)

式(10)第1项为样本zk由第i个类簇子字典重构的误差项,第2项为编码系数向量v̂k与训练系数均值向量mki的距离。最后根据式(11)判断测试样本属于哪一类。

3 优化目标函数

混合采样数据分类模型的目标函数中的变量可以在一个迭代过程中交替优化,可以使用以下优化策略进行每次迭代:(1)当更新第k(k=1,2,,H)个采样频率数据对应的变量时,其他采样频率数据的对应变量固定。(2)对于第k个采样频率数据,XkDk交替更新。

3.1 更新编码系数矩阵Xk

假设Dk固定,编码系数矩阵Xk=[Xk1,Xk2,,XkC],在遍历每个类计算Xki时,Xkj(ji)是固定的,目标函数式(8)可以简化为

J(Xki)=arg minXkir(Aki,Dk,Xki)+λ1Xki1+λ2f(Xki) (12)

且有f(Xki)=Xki-MkiF2-i=1CMki-MkF2+γXkiF2,其中MkiMk是两个均值向量矩阵(以nkimkimk为列向量组成)。文献[

6]已证明当γ>1-nki/nk时,f(Xki)关于Xki满足严格凸性,nkink分别是第k个采样频率数据属于第i类和所有类的样本数量。为了使f(Xki)即满足凸性又保证足够的判别性,设定γ=1,所以式(12)中除了稀疏项Xki1是可微的,可以使用迭代投影算[17](Iterative projection method, IPM)求解式(12)。迭代步长定义为δ,最终的求解依赖步长的取值,文献[17]中描述了步长及软阈值因子的公式。IPM算法见算法1。

算法1   混合采样数据系数矩阵Xki更新算法

输入:δτδ>0γ>0

输出Xki=Xki(h)

① 初始化:系数矩阵Xki(1)=0,迭代次数h=1

② 判断目标函数是否收敛或达到最大迭代次数,否则执行第3步,是执行第5步。

③ 增加迭代次数h=h+1

④ 更新编码系数矩阵Xki

Xki(h)=Sτ/δ(Xki(h-1)-12δQ(Xki(h-1)))

其中:Q(Xki(h-1))Q(Xki)X˜ki(h-1)处的导数,Sτ/δ()是一个软阈值因子公式。

⑤ 输出编码系数矩阵Xki,算法结束。

3.2 更新字典矩阵Dk

当编码系数矩阵Xk更新完,不同采样频率数据的子字典Dki逐类更新。在更新Dki时,所有Dkj(ji)固定,因此式(8)可以简化为

J(Dki)=arg minDki,XkiiAki-DkiXkii-j=1jiCDkjXkijF2+Aki-DkiXkiiF2+j=1jiCDkiXkijF2 (13)

式(13)可以先将矩阵优化问题转换成向量优化按列更新字典,具体可以参见文献[

18]中MFL算法。混合采样数据分类算法的整个迭代优化过程见算法2。

算法2   混合采样数据分类优化算法

输入:混合采样数据Ak(k=1,,H),标签Lk(k=1,2,,H)

输出:字典矩阵{D1,D2,,DH}{X1,X2,,XH}

① 用PCA方法初始化每个采样频率数据对应子字典Dki

Dkipca(Aki)

② 判断目标函数是否收敛或达到最大迭代次数,否则执行第3步,是执行第5步。

③ 固定字典矩阵Dk,对每个采样频率数据用算法1逐类更新编码系数矩阵Xki

Xkupdate Xi(Xki)

④ 固定编码系数矩阵Xk,对每个采样频率数据用MFL算[20]逐列更新字典矩阵Dki

DkupdateDi(Dki)

⑤ 输出字典矩阵D1,D2,,DHX1,X2,,XH,算法结束。

4 实验分析

本文算法采用Python语言并在Python 3.5解释器上进行实现,所有实验都在内存为8 GB RAM,CPU频率为2.70 GHz计算机上运行。为了便于实验,在UCI的一些真实多视图数据集上验证了本文提出的方法,表1给出了5个多视图数据集的基本信息。

表1 UCI数据集
Tab.1 The UCI data sets
Data setObjectDimensionViewCluster
WebKB 187 {187,187,187} 3 5
SensIT 300 {50, 50} 2 3
Digit 2 000 {76, 64, 47} 3 10
Cora 2 708 {1 433, 2 708} 2 7
Citeseer 3 312 {3 703, 3 312} 2 6

WebKB数据集(http://membres‑lig.imag.fr/grimal/data.html)包含了来自4个大学的网页信息,每个网页可以被内容和链接信息等4个视图描述。由于4个子数据集在内容上较为相似,选择Texas数据集上的3个视图进行实验。SensIT数据集(https://www.csie.ntu.edu.tw/∼cjlin/libsvmtools/datasets/multiclass.html)包含了用于划分3种车辆的2个传感器视图数据,每个传感器视图数据有50个特征集合。Digit数据集(https://archive.ics.uci.edu/ml/datasets.html)描述手写数字0到9的特征信息,有10个类,2 000个样本,6个视图,选择以下3个视图进行后续实验:76 维字符形状的Fourier系数特征,64维Karhunen‑Love系数特征和47维 Zernike moments特征。Cora数据集(http://membres‑lig.imag.fr/grimal/data.html)描述了2 708个科学出版物文档,选择包含1 433个词特征的文档视图和含2 708个特征的文档链接视图。Citeseer数据集(http://membres‑lig.imag.fr/grimal/data.html)描述了3 312个科学出版物文档,选择含3 703个词特征的文档视图和含3 312个特征的文档链接视图。

本节实验主要包含两个部分:(1)实验数据集的各个视图以统一采样频率获取,以SensIT为例,利用本文所提出的方法,对SensIT的两个视图进行字典学习后分类,与将两个视图数据进行拼接后运用KNN分类算法进行对比。由图2实验结果看出,在WebKB,SensIT,Cora和Citeseer四个数据集上,本文提出模型的分类准确率比暴力拼接处理后的数据在KNN算法上的分类准确率略高,证明此类问题以拼接手段处理混合采样数据在某些场景是不合理的。

图2 实验结果1

Fig.2 Experimental results 1

(2)实验在SensIT和Digit数据集上,对SensIT的每个视图数据划分200个样本作为训练集,100个样本作为测试集;Digit的每个视图数据划分1 500个样本为训练集,500个样本为测试集。再以不同程度的采样频率对数据的每个视图进行数据采样生成混合采样数据,与对混合采样数据进行均值或中位数填充后在改进的处理多个数据表的FDDL算法进行对比。由表2看出,在某些场景下对混合采样数据进行均值或中位数填充等手段是不合理的,从而验证了混合采样数据分类算法的有效性。

表2 实验结果2
Tab.2 Experimental result 2
IndexData setObjectSampling rate/%ProposedImproved FDDL[4]
ACC SensIT 300 {100, 50} 0.63 0.46
{100, 40} 0.64 0.57
Digit 2 000 {100, 80, 60} 0.474 0.492
{100, 70, 50} 0.512 0.446
{100, 60, 40} 0.554 0.488
F1‑score SensIT 300 {100, 50} 0.623 0.449
{100, 40} 0.632 0.514
Digit 2 000 {100, 80, 60} 0.498 0.511
{100, 70, 50} 0.535 0.453
{100, 60, 40} 0.571 0.512

5 结  论

在实际生活中,数据的采集频率会因为数据采集成本代价不同而高低有别,而采集成本高代价大的数据数量有限但是又相对重要,如何极大限度的利用原始数据,将多个不同采样频率数据充分运用成为一个研究难点。因此,本文将混合采样数据特有的不同采样频率、含不同特征集合的数据特点与多视图数据的多个视图、多个特征集合相类比,巧妙地借助多视图数据分类任务的思想,提出了一种基于字典学习的混合采样数据判别分析模型,该模型与多视图数据分类任务类似,但是又有其特有的混合采样频率的数据特点。本文方法在UCI的真实数据集上得到了验证,实验结果表明本文方法在处理混合采样数据分类问题具有一定的效果。但是该方法在目标函数的字典迭代更新过程中采用逐列更新,计算量较大,时间复杂度较高,还需要进一步完善,以便于更好地处理样本数和特征维数较大的混合采样数据分类问题。

参考文献

1

NAKAMURA E F, LOUREIRO A A F, FRERY A C. Information fusion for wireless sensor networks: Methods, models, and classifications[J]. ACM Com⁃puting Surveys (CSUR), 2007, 39(3): 9. [百度学术]  [Google Scholar]

2

ARMESTO M T, ENGEMANN K M, OWYANG M T. Forecasting with mixed frequencies[J]. Federal Reserve Bank of St. Louis Review, 2010, 92(6): 521536. [百度学术]  [Google Scholar]

3

ZHAO Jing, XIE Xijiong, XU Xin, et al. Multi‑view learning overview: Recent progress and new challenges[J]. Information Fusion, 2017, 38: 4354. [百度学术]  [Google Scholar]

4

TOSIC I, FROSSARD P. Dictionary learning[J]. IEEE Signal Processing Magazine, 2011, 28(2): 2738. [百度学术]  [Google Scholar]

5

ABDI A, RAHMATI M, EBADZADEH M M. Dictionary learning enhancement framework: Learning a non‑linear mapping model to enhance discriminative dictionary learning methods[J]. Neuroc⁃omputing, 2019, 357: 135150. [百度学术]  [Google Scholar]

6

YANG Meng, ZHANG Lei, FENG Xiangchu, et al. Fisher discrimination dictionary learning for sparse representation[C]//International Conference on Computer Vision. N J: IEEE, 2011: 543550. [百度学术]  [Google Scholar]

7

ZHUANG Yueting, WANG Yanfei, WU Fei, et al. Supervised coupled dictionary learning with group structures for multi‑modal retrieval[C]// Twenty⁃Seventh AAAI Conference on Artificial Intelligence. CA: AAAI2013: 10701076. [百度学术]  [Google Scholar]

8

GANGEH M J, FEWZEE P, GHODSI A, et al. Multiview supervised dictionary learning in speech emotion recognition[J]. IEEE/ACM Transactions on Audio, Speech, and Language Processing, 2014, 22(6): 10561068. [百度学术]  [Google Scholar]

9

JING Xiaoyuan, HU Ruimin, WU Fei, et al. Uncorrelated multi‑view discrimination dictionary learning for recognition[C]//Twenty‑Eighth AAAI Conference on Artificial Intelligence. CA: AAAI2014: 27872795. [百度学术]  [Google Scholar]

10

WU Fei, JING Xiaoyuan, YOU Xinge, et al. Multi‑view low‑rank dictionary learning for image classification[J]. Pattern Recognition, 2016, 50: 143154. [百度学术]  [Google Scholar]

11

WU Fei, JING Xiaoyuan, YUE Dong. Multi‑view discriminant dictionary learning via learning view‑specific and shared structured dictionaries for image classification[J]. Neural Processing Letters, 2017, 45(2): 649666. [百度学术]  [Google Scholar]

12

WANG Qianyu, GUO Yanqing, WANG Jiujun, et al. Multi‑view analysis dictionary learning for image classification[J]. IEEE Access, 2018, 6: 2017420183. [百度学术]  [Google Scholar]

13

WU Fei, DONG Xiwei, HAN Lu, et al. Multi‑view synthesis and analysis dictionaries learning for classification[J]. IEICE Transactions on Information and Systems, 2019, 102(3): 659662. [百度学术]  [Google Scholar]

14

AHARON M, ELAD M, BRUCKSTEIN A. K‑SVD: An algorithm for designing overcomplete dictionaries for sparse representation[J]. IEEE Tran⁃sactions on Signal Processing, 2006, 54(11): 4311. [百度学术]  [Google Scholar]

15

ENGAN K, AASE S O, HUSOY J H. Method of optimal directions for frame design[C]//International Conference on Acoustics, Speech, and Signal Processing. N J: IEEE, 1999: 24432446. [百度学术]  [Google Scholar]

16

WRIGHT J, YANG A Y, GANESH A, et al. Robust face recognition via sparse representation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2009, 31(2): 210227. [百度学术]  [Google Scholar]

17

ROSASCO L, VERRI A, SANTORO M, et al. Iterative projection methods for structured sparsity regularization:MIT‑CSAIL‑TR‑2009050, CBCL‑282[R]. [S.l]MIT, 2009:1847. [百度学术]  [Google Scholar]

18

YANG Meng, ZHANG Lei, YANG Jian, et al. Metaface learning for sparse representation based face recognition[C]//International Conference on Image Processing. N J: IEEE, 2010: 16011604. [百度学术]  [Google Scholar]

您是第位访问者
网站版权 © 南京航空航天大学学报
技术支持:北京勤云科技发展有限公司
请使用 Firefox、Chrome、IE10、IE11、360极速模式、搜狗极速模式、QQ极速模式等浏览器,其他浏览器不建议使用!