改进稀疏表示模型的目标跟踪

时间:2022-05-22 01:51:42

改进稀疏表示模型的目标跟踪

摘 要:针对受到光照、遮挡及姿态变化等引起的目标外观发生变化时,目标跟踪的鲁棒性和准确性较差的问题,将稀疏表示引入到粒子滤波框架进行目标跟踪,提出一种稀疏协同模型。首先,在目标运动定位模型中,使用灰度强度值表示目标对象;其次,判别模型通过训练正负模板集获得最优分类特征,并在生成模型中对目标直方图加权以提高目标生成效率;然后,将分类判别模型和生成模型集成在协同模型中,利用重构误差确定目标;最后,通过各模块独立更新,减少目标外观变化对目标跟踪的影响。实验结果表明,所提方法的平均中心误差仅为7.5像素,且具备良好的抗噪性和实时性。

关键词:稀疏表示;目标跟踪;协同模型;似然函数;重构误差

中图分类号:TP391.4

文献标志码:A

文章编号:1001-9081(2016)11-3152-09

0 引言

目标跟踪的实质是估计目标对象在图像序列中的状态[1-3],是识别、分析、决策等后续高级处理的基础,其在安全监控、交通监测、人机交互、军事领域、医学应用等领域[4],有着广泛应用。

目标跟踪模型可分为判别模型(Discriminant Model, DM)和生成模型(Generative Model, GM)两种。判别模型将跟踪问题看成是分类问题,即跟踪的目的是将图片中的前景(目标)和背景分开,该类模型跟踪效率比较理想。Adam等[5]通过局部信息对图像分块进行目标跟踪(Frag Tracker, Frag);Babenko等[6]提出了基于在线多示例学习的目标跟踪方法(Multiple Instance Learning, MIL)。

生成模型主要是寻找与跟踪目标最相似的区域,即最优化估计目标的状态,能够较好地描述目标外观变化。Kalal等[7]改进的在线学习机制能不断更新跟踪模块(Tracking Learning Detection, TLD)。

为在复杂情况下,特别是目标发生剧烈表观变化时,设计出一个在动态场景下有效的目标跟踪算法或模型。受图像稀疏表示的影响,在判别模型中:Wright等[8]把识别转化为分类与匹配问题,提出基于稀疏表示的人脸识别;Mei等[9]首次将稀疏表示理论引入粒子滤波框架中通过最小投影误差跟踪目标;Zhang等[10]将所有候选目标的线性组合通过目标模板线性表示并由稀疏系数确定目标位置;Zhang等[11]又在此基础上优化微小模板,降低计算复杂度; 潘晴等[12]构造背景字典从而筛选区分目标及其相邻背景的特征,提高在复杂场景中目标识别的鲁棒性。基于生成模型: Liu等[13]在稀疏表示的基础上利用在线特征选择来减小目标的重建误差;Bao等[14]改进稀疏模型,主要对琐碎模板对应的系数进行条件约束; Wang等[15-16]提出使用最小二乘法来对目标跟字典之间的距离进行优化,随后提出一种基于稀疏原型的目标跟踪算法提高跟踪效率。

目前方法中,判别模型严重依赖于训练样本的选择,对目标外观的描述度不高,跟踪精度欠缺[17];生成模型计算复杂、时效性低[18]。实际应用中,兼顾准确性、鲁棒性和实时性仍一个挑战性课题[13,19]。鉴于以上分析,本文在粒子滤波的框架下提出一种稀疏协同模型,集合两种模型的优势,对目标进行跟踪。

3 实验结果与分析

实验平台:操作系统为Windows 7;CPU为Intel i7-3770;32GB RAM;软件环境为Matlab2014a。选取公开视频序列[18,20-22]中,包含姿态变化、局部遮挡、光照变化、背景复杂、平面内外旋转、尺度变化等挑战性视频序列进行实验。重点选择了MIL、TLD、Frag、本文中融合前单个目标判别模型(Discriminant Model, DM)和目标生成模型(Generative Model, GM)5种相关方法法与本文方法进行对比实验。

3.1 定性结果与分析

在测试视频序列中,绿色短划线框表示Frag的跟踪结果,黄色划线-点-划线框表示TLD的跟踪结果,蓝色划线-点点-划线框表示MIL的跟踪结果,浅蓝色长划线框表示DM的跟踪结果,紫色长虚线框表示GM的跟踪结果,红色实线框表示本文的跟踪结果。

姿态变化、局部遮挡实验 选取Bird视频序列,共100帧,目标跟踪对象为飞翔小鸟。相关算法的目标跟踪结果,如图6所示。

从图6可以看出:从#22帧开始Frag跟踪发生了漂移,从而无法准确跟踪,原因在于其跟踪依据的是局部信息而不是全局信息导致最终跟踪失败。MIL和TLD追踪器在小鸟转身前只是有少量的漂移;但在#58帧小鸟外观发生了较大变化并伴随着旁边还有干扰产生局部遮挡时,MIL和TLD漂移量逐渐增大,无法对目标准确定位,导致在#89时TLD丢失了目标。DM在跟踪过程中随着小鸟运动引起姿态变化和局部遮挡的干扰,捕捉到目标的准确度逐渐下降;GM因为遮挡程度更新不及时,导致目标有所偏差;而本文协同模型可以通过目标判别优势,在小鸟被遮挡的情况下准确定位;又能利用目标生成模型缓解因运动带来外观变换,从而在整个过程中能准确地跟踪到目标。

光照变化、背景混乱、对比度低实验 选取CarDark视频序列,共400帧,目标跟踪对象为运动小车。相关算法的目标跟踪结果,如图7所示。

由图7可见:Frag在#32帧有一些漂移,在#75、#135和#225帧又因光照变化使得Frag漂移目标丢失。MIL不能处理光照信息,所以从#75帧开始有少量漂移,随着小车的运动加上光照影响,到#225帧时丢失跟踪目标,错误跟踪到其他车辆上。TLD在#75是有少许漂移,慢慢的也无法准确跟踪;在#280和#378帧由于路灯不断闪烁的影响,Frag丢失目标,MIL也慢慢远离目标,而TLD也丢失了目标。DM因光照影响对目标的分类匹配,GM在背景混乱的情况不如判别好;由于本文的方法是把背景图像块和偏移目标的图像块都作为负样本处理,在生成模型中把光照处理为遮挡,模型更新及时,从而这些图像块的置信值都比较小;因此跟踪器能够很好地跟踪到准确的目标,不会存在太大的偏移,在整个汽车行驶过程中跟踪得都很好。

背景混乱、平面内旋转、尺度变化实验 选取board视频序列,共700帧,目标跟踪对象为板。相关算法的目标跟踪结果,如图8所示。

图8中,由#73和#120帧可见,Frag只要目标本身没有剧烈的外观变化几乎能够准确地跟踪目标,但是当目标快速移动和旋转时(从#490和#502可以看出),Frag跟踪器不能完成跟踪任务。而TLD和MIL仅使用当前样本(目标区域),而缺少对样本的好坏估计,所以在目标经过背景凌乱的情况下就不能准确跟踪目标,当目标发生旋转时,MIL跟踪器能够跟上目标(#490和#502),但是到后来还是发生了漂移,到最后丢失了目标(#652)。

DM由于旋转对目标定位精度有所下降,GM在复杂背景下影响对构造字典的质量,引起目标定位不准确;而本文方法中判别模型可以很好地区分前景和背景,利用最新获取的负样本更新负模板集合,更加有利于在变化着的、凌乱的场景中区分前景和背景,对于板的运动,生成模型可以捕捉细微变化具有较好的优势,所以能在整段视频序列中进行有效跟踪。

光照变化、平面外旋转、姿态变化实验 选取Sylvester视频序列,共500帧,跟踪对象为人物手中的玩偶。相关算法的目标跟踪结果,如图9所示。

由图9可以看出,#130帧之前,各相关算法都能准确跟踪目标。随着玩偶不停地、长时间地移动变化姿态,MIL出现了漂移,直到#462跟踪不准确。Frag在前300帧的跟踪效果较好;但从#386帧开始,随着玩偶的来回移动,致使跟踪失败。TLD和MIL在#386帧出现了漂移现象,在#462帧没有准确跟踪到目标,原因在于二者不能适应目标外观变化而偏离了跟踪目标。DM在对目标分类中会因玩偶旋转姿态变化增加对目标定位的难度,GM可以适应玩偶的运动变化但更新字典次数增多,降低生成的目标与字典相似程度;本文方法由于各模块独立更新,使得模板字典具有较好的实时性和稳定性,判别模型会保留最佳区分目标的特证,结合生成目标的特征点匹配,能准确对目标定位,在整段视频中,无论是光照条件下跟踪目标长时间来回移动,还是平面外旋转的变化情况下,均能准确跟踪到目标。

简言之,MIL针对的是外观模型,当目标外观变化较大,更新不及时,就会导致目标跟踪失败。TLD对训练样本没有选择,当运动出现飘移后,便难以确定区分目标和背景的特征。Frag基于分块的非特定目标跟踪,主要依据局部信息,目标局部被遮挡,将丢失目标。而本文方法能够同时利用局部信息和全局信息。其中,DM可以很好地区分目标与背景;GM能够在目标运动过程中较好地描述目标外观变化;综合两种模型的优势,和其他方法相比,本文的方法具有判别和生成模型的优势,能够准确跟踪目标。

3.2 定量结果与分析

为进一步客观准确评估本文目标跟踪方法,采用中心点位置误差指标作为衡量准则[19],进行定量评价分析。

中心点位置误差(error),是指跟踪结果与真值之间的x和y方向的坐标值之间差距的平方误差,如式(19)所示:

式中:xg和yg分别代表跟踪目标真实的x方向和y方向的坐标值;xi和yi分别代表跟踪不准确时跟踪结果的x方向和y方向的坐标值。该误差愈小,目标跟踪的准确度愈高,反之亦然。相关方法的中心点位置误差示意图,如图10所示。

从图10可以看出,在4种具有不同跟踪挑战的视频序列中,本文的跟踪方法产生的误差都比另外几种方法的小,在不同场景中目标跟踪表现得也较稳定,从而说明本文方法比Frag、TLD和MIL方法目标追踪得更准确。

下面,从公共视频库中随机抽取6组,加上前述4组,共10组视频进行测试。每组测试10次后取平均值,所得各视频序列平均中心点位置误差,如表1所示。

由表1可见,本文方法在目标跟踪过程中的平均中心点误差为7.5像素,远小于其他方法。即使与融合前单个目标判别模型(DM)和目标生成模型(GM)相比,分别降低了0.6%和1.1%。

为更客观、更全面、多角度地对四种跟踪算法在噪声污染下进行定量分析,引入两个评价指标[25]:跟踪精确率(Tracking Rate, TR)和跟踪虚警率(False Alarm Rate, FAR),它们通过以下3个参数进行定义:

1)真阳率(True Positive Area, TPA),为跟踪结果中属于目标的区域;

2)假阳率(False Positive Area, FPA),为跟踪结果中属于背景的区域;

3)假阴率(False negative Area, FNA),为未跟踪到的目标区域。则:

TR=TPA/(TPA+FNA)×100%(20)

FAR=FPA/(TPA+FPA)×100% (21)

通过式(20)和(21)可以看出精确率越大、虚警率越小,跟踪的精度越高,反之亦然。

重复运行10次目标跟踪实验后,上述指标平均值,如表2所示。

从表2中可以看出,本文方法的目标跟踪平均精确率为89.89%,平均虚警率为11.03%。

究其原因:DM跟踪器主要负责区分前景和背景,而对于遮挡的问题不能很好处理;GM跟踪器旨在处理遮挡问题,而容易受到凌乱背景的影响;而本文对DM与GM进行优劣互补,而且各模板独立更新,从而保证目标跟踪的准确率。

3.3 鲁棒性分析

对测试视频序列,加入高斯噪声或椒盐噪声,进行鲁棒性分析实验。

3.3.1 定性分析

绿色短划线框表示Frag的跟踪结果,黄色划线-点点-划线框表示TLD的跟踪结果,蓝色划线-点-划线框表示MIL的跟踪结果,浅蓝色虚线框表示DM的跟踪结果,紫色长划线框表示GM的跟踪结果,红色实线框表示本文的跟踪结果。

对Bird视频序列加入噪声密度为0.25的椒盐噪声后,相关算法的目标跟踪结果,如图11所示。

从图11可以看出,从#8帧开始,Frag跟踪由于噪声污染了局部信息,无法准确捕捉小鸟运动,而失去跟踪目标。MIL和TLD追踪器在最初还可以捕捉到小鸟;但在#57帧因噪声加剧了小鸟外观变化和局部遮挡现象,二者的漂移量逐渐增大;又由于无法及时更新模板,对目标定位出现偏差,二者逐渐丢失了跟踪目标。DM和GM开始捕捉到目标,由于噪声降低了背景与目标的对比度,引起跟踪误差渐渐增大;本文方法可以通过目标判别优势能较好地区分目标和背景,利用生成模型处理局部遮挡,因此仍能捕捉到跟踪目标,但由于噪声污染致使定位的精确度有所降低。

添加均值为0.03、方差为0.05的高斯噪声后,在CarDark视频序列上,相关算法的目标跟踪结果,如图12所示。

由图12可见,Frag在#23帧有一些漂移,噪声使光照发生变化致使Frag愈加敏感,漂移逐渐增大,最终跟踪目标丢失。MIL刚开始可以捕捉到部分目标,加入的噪声让车对运动和光照影响较大,到#106帧时,彻底丢失跟踪目标,而错误跟踪其他车辆上。噪声使TLD的训练样本质量下降,在#23帧仅跟踪到局部小车,慢慢地也丢失了跟踪目标(从#137帧开始)。DM对光照比较敏感,小车的运动增加提取最佳特征的难度。GM由于噪声污染使生成目标的置信度变大从而定位不准。本文模块的独立更新策略,判别模型和生成模型相互合作,保证定位的准确率,使得本文方法在噪声污染情况下,仍能跟踪目标,只是噪声一开始就降低了模板的质量,从而偏移量稍大。

在board视频序列中,加入噪声密度为0.25的椒盐噪声,相关算法的目标跟踪结果,如图13所示。

从图13可以看出,Frag在#24帧后失去跟踪目标,原因是板的快速运动对Frag跟踪器的干扰较大,并且椒盐噪声加大了目标判断的难度,导致跟踪任务失败。TLD和MIL在凌乱的背景下跟踪目标效率较低,椒盐噪声使目标运动飘移逐渐增大,致使二者在#24帧后逐渐失去跟踪目标。DM由于噪声污染,难以区分目标和背景,GM因噪声加大在复杂背景下对目标定位的难度;本文方法总体上能够跟踪到目标,只是噪声污染增加了判别和生成目标的难度,目标跟踪准确度有所下降。

在Sylvester测试视频中,加入均值为0.03、方差为0.05的高斯噪声,相关算法的目标跟踪结果,如图14所示。

由图14可见,Frag刚开始只能跟踪到玩偶的局部,随着玩偶不停变化姿态和噪声的干扰,从#66帧后完全失去跟踪目标。MIL在#12帧以前还可以跟踪到目标,从#31帧后开始目标定位逐渐失准,在#56帧后便无法准确跟踪;虽然TLD和MIL一样,在#31到#49帧效果稍好一点,但它们由于噪声干扰和无法适应玩偶的变化,在#102帧后就完全失去了跟踪目标。本文方法通过判别模型和生成模型协同处理,使得整个跟踪过程中都能捕捉到目标,但随着噪声污染对区分目标和背景影响的加大,目标跟踪误差也越来越大。

总而言之,加入噪声后,使得目标与背景的对比度降低,MIL由于不能很好描述目标外观的变化,加之更新不及时,逐渐丢失跟踪目标。因噪声降低了训练样本的质量,TLD难以提取有效的区分目标和背景的特征,而难以准确进行目标跟踪。Frag依据的局部信息非常易受噪声影响,使得目标与背景混淆,从而致使目标跟踪失败。噪声污染,使DM无法提取出区分背景与目标的最佳特征,让GM生成的目标与字典对比的相似度变大,故定位偏差主键变大;本文方法中,判别模型依靠局部信息区分目标与背景,而生成模型通过全局信息描述目标外观变化,再加上模块的独立更新策略,有效保证了目标跟踪的精度;但噪声污染无疑使得目标与背景更加混淆,大幅增加了目标定位难度,致使本文方法跟踪精度会有所下降。

3.3.2 定量分析

在高斯噪声和椒盐噪声污染的情况下,对10组视频测试10次取平均值,各方法所得各视频序列平均中心点位置误差(像素),如表3和表4所示。

表3中高斯噪声下本文的平均中心位置误差(像素)为13.1,比其他方法的要小;表4中能看到椒盐噪声污染下本文的平均中心位置误差(像素)是9.9,小于其他方法,整体上在噪声污染的情况下跟踪准确率有所下降,但相比其他方法,均有一定的抗噪性。

对测试视频序列分别加入高斯噪声(均值为0.03、方差为0.05)和椒盐噪声(密度为0.25),重复运行10次,目标跟踪实验后,TR和FAR如表5和表6所示。

从表5可以看出,在高斯噪声污染下,本文方法的目标跟踪平均精确率为79.83%,平均虚警率为20.46%;由表6可见,在椒盐噪声污染下,本文方法的目标跟踪平均精确率为87.36%,平均虚警率为13.08%。总体上,本文的精确率比其他五种方法要高,而虚警率则较低;表明在噪声污染情况下,本文方法仍能跟踪到目标。

通过分析具体原因发现,由于噪声污染,使MIL外观模型更新不及时,降低了TLD训练样本的质量,从而影响对显著区域的检测,影响了Frag所依据的局部信息,减弱了DM对前景和背景的区分,加大GM估计目标的难度,从而削弱了对跟踪目标的准确判别。在噪声污染的情况下,本文方法则通过局部信息区分目标与背景,利用全局信息描述目标外观变化,由于噪声使得目标与背景的对比度降低,刚开始难以捕捉到最佳特征,致使跟踪过程中精确率出现少许下降。

3.4 运行时间

将各方法在10组视频序列上测试10次后取平均值,运行的平均帧率(f/s),如表7所示。

从表7中可以看出本文方法的目标跟踪平均帧率为10.21f/s,运行速率和单个目标判别模型相比稍低,但要高于其他方法,能够满足一定的实时性。

测试视频序列大部分的分辨率为720×400,通过分析,GM比DM复杂,故运行速率不如后者。Frag主要依据局部信息基于分块对目标进行匹配,来计算两幅图像的相似度,融入了直方图对应位置的信息,因此运行慢。MIL和TLD虽然公认运行速度快,但由于每个视频序列中目标受到外界环境干扰和实验环境的影响,导致运行速度有所差异;本实验中,MIL在跟踪过程中依赖上一帧的结果,由于场景对目标影响较大要不断对样本进行学习更新,因此降低了运算速度;而TLD为保证每一帧正常检测到目标,跟踪模块对整幅图像进行全屏扫描,由于跟踪结果不精准,需要不断更新显著特征点和检测模型来跟踪目标,因此耗时较大。而本文中的判别模型几乎只对负模板更新,生成模型根据遮挡程度进行更新,具有更好的灵活性,而协同模型需要两者共同完成,所以目标跟踪平均帧率和单个判别模型相比稍低,但差距不大,综合考虑目标跟踪的准确率和鲁棒性,本文的方法优于其他方法。

4 结语

本文将稀疏表示引入粒子滤波的框架中,提出了协同目标跟踪模型。首先,在原有的稀疏判别模型的训练上进行正负模板训练。其次,在表示生成模型中归一加权目标直方图集成了一个伪分类器,通过置信值确定生成目标,可以有效地处理复杂的背景以及遮挡问题。最后,判别分类和生成模块集成在同模型中,且各模块独立更新,从而减少漂移,提高了目标跟踪的准确率。实验结果表明,在目标复杂的场景下因外观变化,本文仍能较好地跟踪动态复杂背景视频序列中的运动目标,其平均中心位置误差相对较小,且具有较好的鲁棒性。加入噪声后,本文目标跟踪精度有所下降,后续研究中拟通过寻求更好的区分特征或类似SVM强分类器的方法来解决。

参考文献:

[1] 匡金骏, 柴毅, 熊庆宇. 基于时空约束和稀疏表示分类的目标跟踪算法[J]. 控制与决策, 2013, 28(9): 1355-1360. (KUANG J J, CHAI Y, XIONG Q Y. Visual object tracking via time-space constraints and sparse representation classification[J]. Control and Decision, 2013, 28(9): 1355-1360.)

[2] 周治平, 周明珠, 李文慧. 基于混合粒子滤波和稀疏表示的目标跟踪算法[J]. 模式识别与人工智能, 2016, 29(1):23-30.(ZHOU Z P, ZHOU M Z, LI W H. Object tracking algorithm based on hybrid particle filter and sparse representation[J].Pattern Recognition and Artificial Intelligence, 2016, 29(1): 23-30.)

[3] 王保宪, 赵保军, 唐林波, 等.基于双向稀疏表示的鲁棒目标跟踪算法[J]. 物理学报, 2014, 63(23):166-176. (WANG B X, ZHAO B J, TANG L B, et al. Robust visual tracking algorithm based on bidirectional sparse representation[J]. Chinese Journal of Physics, 2014, 63(23):166-176.)

[4] LI M, MA L F, NIAN F Z. Robust visual tracking via appearance modeling and sparse representation[J]. Journal of Computers, 2014, 9(7): 1612-1619.

[5] ADAM A, RIVLIN E, SHIMSHONI I. Robust fragments-based tracking using the integral histogram[C]// Proceedings of the 2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2006: 798-805.

[6] BABENKO B, YANG M, BELONGIE S. Robust object tracking with online multiple instance learning[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2011, 33(8): 1619-1632.

[7] KALAL Z, MIKOLAJEZYK K, MATAS J. Tracking-learning-detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(7):1409-1422.

[8] WRIGHT J, YANG A Y, GANESH A, et al. Robust face recognition via sparse representation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2009, 31(2): 210-227.

[9] MEI X, LING H. Robust visual tracking and vehicle classification via sparse representation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2011, 33(11): 2259-2272.

[10] ZHANG S, YAO H, SUN X, et al. Robust object tracking based on sparse representation[C]// Proceedings of SPIE International Conference on Visual Communications and Image Processing. Bellingham: SPIE, 2010: 77441N-1.

[11] ZHANG S, YAO H X, ZHOU H Y, et al. Robust visual tracking based on online learning sparse representation[J]. Neurocomputing, 2013, 100(1): 31-40.

[12] 潘晴, 曾仲杰. 基于稀疏表示和特征选择的LK目标跟踪[J]. 计算机应用研究, 2014, 31(2): 623-628.(PAN Q, ZENG Z J. LK tracking based on sparse representation and features selection[J]. Application Research of Computers, 2014, 31(2): 623-628.)

[13] LIU B Y, YANG L, HUANG J Z, et al. Robust and fast collaborative tracking with two stage sparse optimization[C]// Proceedings of the 11th European Conference on Computer Vision. Heidelberg: Springer-Verlag, 2010: 624-637.

[14] BAO C, WU Y, LING H, et al. Real time robust l1 tracker using accelerated proximal gradient approach[C]// Proceedings of the 2012 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2012: 1830-1837.

[15] WANG D, LU H C, YANG M H. Least soft-threshold squares tracking[C]// Proceedings of the 2013 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2013: 2371-2378.

[16] WANG D, LU H C, YANG M H. Online object tracking with sparse prototypes[J]. IEEE Transactions on Image Processing, 2013, 22(1): 314-325.

[17] SHI Z, WEI C, FU P, et al. A parallel search strategy based on sparse representation for infrared target tracking[J]. Algorithms, 2015, 8(3): 529-540.

[18] ZHANG T, LIU S, AHUJA N, et al. Robust visual tracking via consistent low-rank sparse learning[J]. International Journal of Computer Vision, 2015, 111(2): 171-190.

[19] 杨彪, 林国余,张为公,等. 融合残差Unscented 粒子滤波和区别性稀疏表示的鲁棒目标跟踪[J]. 中国图象图形学报, 2014, 19(5): 730-738.(YANG B, LIN G Y, ZHANG W G, et al. Robust object tracking incorporating residual unscented particle filter and discriminative sparse representation[J]. Journal of Image and Graphics, 2014, 19(5): 730-738.)

[20] YANG C. Saliency detection via graph-based manifold ranking[C]// Proceedings of the 2013 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2013: 3166-3173.

[21] YAN Q. Hierarchial saliency detection[C]// Proceedings of the 2013 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2013: 1155-1162.

[22] 杨存强, 韩晓军, 张南. 基于图像块迭代和稀疏表示的超分辨率图像重建算法[J]. 计算机应用, 2016, 36(2):521-525.(YANG C Q, HAN X J, ZHANG N. Super-resolution image reconstruction algorithm based on image patche iteration and sparse representation[J]. Journal of Computer Applications, 2016, 36(2):521-525.)

[23] 胡昭华, 徐玉伟, 赵孝磊, 等.多特征联合的稀疏跟踪方法[J]. 计算机应用, 2014, 4(8):2380-2384,2389.(HU Z H, XU Y W, ZHAO X L, et al. Sparse tracking algorithm based on multi-feature fusion[J]. Journal of Computer Applications, 2014, 4(8):2380-2384,2389.)

[24] GUO Q, WU C. Fast visual tracking using memory gradient pursuit algorithm[J]. Journal of Information Science & Engineering, 2016, 32(1):213-228.

[25] POLAT E, YEASIN M, SHARMA R. A 2D/3D model-based object tracking framework[J]. Pattern Recognition, 2003, 36(9): 2127-2141.

上一篇:以“德育评价”为抓手 全面推进德育课程一体化... 下一篇:庐剧现状之我观