基于两阶段的小样本目标检测方法

点赞:28590 浏览:131365 近期更新时间:2024-04-04 作者:网友分享原创网站原创

摘 要:为了在只有几个样本的情况下在待检测图像中采用模板匹配的方式定位目标,提出了一种两阶段的目标检测方法.首先采用概率模型通过几个样本离线构造空间,然后采用两阶段的方式在待测图像中检测目标:第一阶段在待测图像中通过检测目标的图像块,并记录下这些部件块在样本中所处的位置信息;第二阶段基于第一阶段所得到的图像块来计算样本整体的相似度,从而定位目标.理论推导和实验结果验证了所提出方法比前人的工作具有更低的时间复杂度和更高的目标检测准确率.

关 键 词 :空间;小样本;概率模型;目标检测;相似度

0 引言

近年来,由于信息技术的不断发展和现实应用的需要,基于图像的目标检测引起了越来越多的关注.传统的基于分类器的模式识别方法往往需要大量的样本进行训练[1-5],但是,现实中的许多应用(例如网络图像检索、机场安检、视频中的无索引目标检测等)往往只能采集到目标的少量样本.在这些应用中,基于少量样本的模板匹配方法显得更加实用.

本文主要针对的问题是:在只有几个样本的情况下如何在待检测图像中采用模板匹配的方式定位目标.设计一个鲁棒性较强的模板匹配方法现阶段仍然是一个较困难的问题[6].前人已有不少研究模板匹配的工作,首先,针对单个样本的情况,Shecan等[7]基于局部自相似特征来进行模板匹配,该工作针对单个样本的情况来进行目标检测;Sibiryakov[8]基于投影量化的梯度直方图(Projection and Quantization Histogram of Gradient, PQHOG)特征构造了索引结构,从而采用的方式来定位目标;Seo等[9]基于局部自适应可操作核(Locally Adaptive Regression Kernel, LARK)特征采用滑动窗口的方式在目标图像中检测目标.然后,针对少量样本(多于1个,通常3~10个样本)的情况,文献[10-11]中采用了局部自适应可操作(Locally Adaptive Steering, LAS)特征,通过少量样本训练空间,然后采用滑动窗口的方式检测目标.采用少量样本的工作和前人单样本的工作相比,在目标抗性变方面具有较大的优势[11],多个样本采用训练空间的方法能够得到关于目标的具有一定形变范围的空间,从而能进一步提升目标检测的准确性.但是,文献[10-11]中的工作存在如下不足:一是空间仅仅采用了特征的最大值减去最小值作为对应特征的容忍度,缺少一定的理论合理性;二是采用滑动窗口的方式,效率太低,对于大小为m×n的训练样本,要在大小为M×N的待测图像中检测与样本同样大小的目标,其时间复杂度为O((M-m)×(N-n)×m×n).

根据上述两个问题,本文提出了一种基于少量样本的图像块的两阶段方法.首先采用概率模型来描述空间的容忍度并用少量样本来训练该空间,然后采用两阶段的方式在待测图像中定位目标:第一阶段检测在待测图像中检测目标的部件块,并记录下这些部件块在样本目标中所处的位置信息;第二阶段再基于这些部件快来计算样本整体的相似度,从而定位目标.

本文对空间中每个位置的容忍度采用高斯模型来表示,能够提升目标检测的准确率;同时通过两阶段使时间复杂度从文献[10]中的O((M-m)×(N-n)×m×n)降到了本文中的O((M/r)×(N/t)×m×n).

本文采用梯度直方图(Histogram of Oriented Gradient,HOG)特征来表征图像,该HOG特征能够稳定地表达图像局部信息[12-14],但是,本文所提出的方法不仅仅限于该HOG特征,同样适用于其他特征(如LARK[9]、LAS[10-11]等).

1.空间的训练

基于少量样本的空间具有比单样本方法更强的抗形变功能[10-11].在前人的工作[4,16-18]中,空间均是采用统一的、固定大小的取值,这样的取值无法自适应地反映出对应位置的特征取值的容忍度,而文献[10-11]首次提出了对空间的训练,从而使得空间中不同位置的特征取值容忍度具有了自适应性;但是,采用的方法仅仅是在空间的每个位置用最大样本取值和最小样本取值来作为特征取值的容忍度.与文献[10-11]类似,本文同样采用少量样本来训练空间,不同在于本文基于概率模型来对空间进行训练.

4.结语

本文基于少量样本的情况,提出了一种采用两阶段的方式来进行目标检测的方法,首先采用概率模型来描述空间的容忍度并用少量样本来训练该空间;然后采用两阶段来定位目标:在第一阶段的中,定位出目标的图像块;在第二阶段的中,针对已定位的图像块再对整个目标进行检测.对比实验的结果表明,本方法相比之前的基于少量样本的工作在计算效率和检测率上都有提升.

EN T. Weakly supervised object recognition and localization with invariant high order features [C]// BMVC 2010: Proceedings of the 2010 British Machine Vision Conference. Nottingham: BMVA Press, 2010: 47.1-47.11.


[18]GODEC M, ROTH P M, BISCHOF H. Houghbased tracking of nonrigid objects [C]// CVPR 2011: Proceedings of the 2011 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2011: 81-88.

[19]BALUJA H, KANADE T. Neural work based face detection [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1998, 20(1): 22-38.

[20]AGARWAL S, AWAN A, ROTH D. Learning to detection objects in images via a sparse, partbased representation [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2004, 26(11): 1475-1490.

[21]KAPPOR A, WINN J. Located hidden random fields: learning discriminative parts for object detection [C]// ECCV 2006: Proceedings of the 2006 European Conference on Computer Vision, LNCS 3953. Berlin: SpringerVerlag, 2006: 302-315.