基于显著对象的贝叶斯多目标检测方法

时间:2022-10-27 01:57:42

基于显著对象的贝叶斯多目标检测方法

摘要:针对多目标图像检测存在的误检问题,结合低层特征和中层提示,提出了一个新的基于显著对象的贝叶斯框架下的多目标检测方法。该方法首先用上下文感知显著检测方法获取图像的低层特征信息,然后用Ncut图像分割取得图像的显著中层信息提示,即多目标的类别标签信息,根据低层和中层信息提示来计算先验显著图,最后使用贝叶斯方法计算获得图像的后验显著图。实验结果表明,该方法提高了显著对象检测精度,并且可以较好地解决多目标检测误检问题。

关键词关键词:显著对象;上下文感知;归一化切割;多目标检测;显著检测

中图分类号:TP301

文献标识码:A 文章编号文章编号:16727800(2013)007002604

0 引言

图像理解是当今的研究热点,而图像理解的关键问题就是图像中目标对象的提取问题[1]。正确提取这些关键目标,可以大大提高图像分析与处理的效率和准确度,降低计算的复杂度,避免不必要的计算资源浪费。图像显著区域检测技术正是在这种思想的基础上提出并发展起来的。

目前,国内外研究者提出许多显著对象检测模型,可分为自底向上的模型、自顶向下的模型和混合模型三类。在自底向上模型的研究过程中,特征集成理论(Feature Integration Theory,FIT)是这类模型的基础。其中Itti等人[2]在1998年提出的算法最具代表性,该算法将多种特征、多种尺度通过中心——周围思想得到的显著性度量结果合成为一幅显著图,并且该模型通过引入运动和闪变的对比度特征而扩展到视频显著性计算中[3]。Walther和Koch在Itt’s98 模型的基础上进行了扩展,得到一个显著典型(proto)目标[4]。另外,还有其它一些自底向上的模型,比如Bruce提出的基于信息最大原则的AIM模型[5],Koch提出的基于图论的GBVS模型[6],Hou提出的基于谱残差的SR模型[7],Achanta提出的基于频率调整的FT模型[8]等。还有利用图像分割获得区域显著性[910]、利用提取语义线索(人脸、语音等)[11]、利用机器学习方法学习[9,1213]等自顶向下的显著计算模型。

本文针对图像检测存在的多目标误检问题,提出了基于上下文感知显著检测模型和Ncut分割的贝叶斯框架下的多目标检测方法。首先根据上下文感知显著检测方法获取图像的低层特征信息,然后用Ncut图像分割方法得到图像的中层信息提示,即目标类别信息,根据低层信息特征和中层信息提示来增强显著区域,抑制非显著区域,计算得到图像的先验显著图,最后根据贝叶斯方法计算得到图像的后验显著图。

1 方法原理

本文的显著区域检测总体框架如图1所示,主要包括基于上下文感知的显著区域检测和Ncut图像分割,将两者结合,增强显著区域,抑制非显著区域,计算得到先验显著信息,最后根据贝叶斯方法求得后验显著图。

1.1 低层特征的提取

根据人眼的视觉注意特性,显著检测主要遵循以下3项原则:

①从局部来看,显著区域和周围区域有明显的对比度和颜色等方面的差别;

②从全局来看,显著区域总是某些特征在全局范围内出现频率较低的区域;

③显著的区域一般会有一个聚集的中心,既显著区域和物体在图像中的分布有明显的聚合特征,而不是分散的。

由原则①可知,颜色和对比度比较大的区域将获得比较高的显著度,而类似的和模糊的将获得比较低的显著度。由原则②可知,出现频率比较高的区域将获得比较低的显著度。由原则③可知,显著地像素点应该是聚合的,而不是分布在整幅图像中的。

本小节结构如图2所示。对图像进行局部和全局的单尺度显著度计算,并进行多尺度的显著增强,将显著区域附近的点扩展为显著点,计算图像的显著图。

3 结语

本文针对图像检测中存在的多目标误检问题,提出了基于上下文感知显著检测和Ncut图像分割的贝叶斯框架下的多目标检测方法。该方法基于上下文感知显著检测方法获取低层特征信息,用Ncut图像分割方法得到图像的中层多目标信息提示,结合中、低层信息来对显著检测的结果进行增强和抑制,计算得到图像的先验显著图,最后根据贝叶斯方法计算得到图像的后验显著图。本文方法提高了显著对象的检测精确度,并且解决了多目标图像显著对象检测中存在的误检问题,但是对于只有单一显著对象的图像,本文方法存在计算耗时高、效率慢的问题。如何提高算法的速度和效率,将是后续的研究重点。

参考文献:

[1] JIANG Y,MENG J,YUAN J.Randomized visual phrases for object search[C].Computer Vision and Pattern Recognition,2012.

[2] ITTI L,KOCH C,NIEBHR E.A model of saliencybased visual attention for rapid scene analysis[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1998(11).

[3] ITTI L,KOCH putational modeling of visual attention[J].Nature Review Neuroscience,2001(3).

[4] WALTHER D,KOCH C.Modeling attention to salient proto objects[J].Neural Networks,2006(9).

[5] BRUCE N D B,TSOTSOS J K.Saliency attention and visual search:an information theoretic approach[J].Journal of Vision,2009(3).

[6] HAREL J,KOCH C,PERONA P.Graphbased visual saliency[J].In Advances Neural Information Processing Systems,2007.

[7] HOU X,ZHANG L.Saliency detection: a spectral residual approach[C].In IEEE Conference on Computer Vision and Pattern Recognition,2007.

[8] ACHANTA R,HEMAMI S,ESTRDDA F,et al.Frequencytuned salient region detection[C].Computer Vision and Pattern Recognition,2009.

[9] T LIU,Z J YUAN,J A SUN.Learning to Detect a Salient Object[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2011(33).

[10] Y HU,D RAJAN,L T CHIA.Adaptive local context suppression of multiple cues for salient visual attention detection[C].In IEEE International Conference on Multimedia and Expo,2005.

[11] CERF M,HAREL J,EINHAUSER W.Predicting human gaze using lowlevel saliency combined with face detection[C].In Advances in Neural Information Processing Systems,2008.

[12] J LI,Y H TIAN,T J HUANG.Probabilistic multitask learning for visual saliency estimation in video[J].International Journal of Computer Vision,2010(2).

[13] STAS GOFERMAN,LIHI ZELNIKMANOR,AYELLRT ,et al.Contextaware saliency detection[C].In Proc.IEEE Conference on Computer Vision and Pattern Recognition,2010.

[14] XIE Y,LU H,YANG M.Bayesian saliency via low and mid level cues[C].IEEE Transactions on Image Processing,2011.

上一篇:电子证据取证在统计执法中的运用 下一篇:下一站,优化能源结构