还剩5页未读,继续阅读
文本内容:
鲁棒性实时物体检测概要这篇论文描述了一个在保证高检测率的前提下特别快速处理图像的可视化物体检测框架它有三个关键贡献第一,介绍了一种新的图像表达方式,叫做“积分图像,这种方法大大加快我们的检测计算其次,提出了一种可学习算法,基于adaBoost它是一种通过选择一些重要的可视化特征来产生特别有效的分类器第三个贡献是在一个级联器重合并多个分类器,使得背景区域的图像被快速丢弃,这样可以把更多计算放在像检测物体的区域上在人脸检测方面已经进行了一系列试验这个系统跟之前最好的系统的性能都要好它可以在常规的桌面系统上达到15帧/s的处理速度介绍这篇论文为构建一个鲁棒性快速物体检测的系统框架带来了新算法和思路直到最终我们已经构建了一个正面的人脸检测系统,它的检测率和错误判对率比充分证明比之前已经公布的全部结果都要好的多在PHI的机器上,对384x288的图片进行检测能达到15帧/s的速度在其他的人脸检测系统上,帮助信息,如相邻视频序列中的图像差异,彩色图片的像素颜色,已经能够达到比较高的检测速度但我们的系统是对灰度图进行检测,从而达到更高的检测速度我们这个物体检测框架提出了三点重要内容我们将简要地介绍这些然后在后面的章节中详加叙述第L点,一种新的图像表达方式称为积分图像,它允许进行快速的特征计算受papageorgiou等人的启发,我们的检测系统并不直接采纳图像积分像他们一样,我们用了Haar基础函数来回顾一些特征(尽管我们会用比Haar过滤器更简单的过滤器函数\为了快速计算这些特征,我们用积分图像的方法(这种方法其实就是将一个图像区域的像素简洁地累加起来X通过计算之后,任何其他位置的Haar特征可以在常量时间内完成计算第2点,本文提出了用adaboost方法选择一小部分重要特征来构筑分类器任何的图像的子窗口的haar特征的数量特别的大,远远超过像素的数量为了确保快速的分类学习过程必需排解大量的特征,并集中到小部分的重要特征上受Tieu和Viola的影响,特征选择通过一个简洁修改过的AdaBoost过程弱学习器被限制住,这样每个弱分类器返回结果只会依据一些简洁的特征这样在每一步的提高过程中,选取一个弱分类器可以看成是特征选取过程AdaBoost供应了一个有效的学习算法和高边界性能第3点,将分类器呈级联的结构合并起来使得集中留意到可能消失检测物体的区域来提高速度将更简单的处理过程保留给那些可能的区域这个关键的测量就是集中过程的负例检错率我们将叙述一个算法用来训练一个简洁有效的分类器作为留意力集中操作的监督监督这个术语涉及到一个检测一种特别类型的样本的训练操作在人脸检测区域,通过20条简洁命令操作的分类器,它能达到小于1%的负例判错率和40%的正例判错率(正例判错是指人脸区域但没有检测出来X而且这个过滤器将筛选掉近一半的数据那些没有被初始分类器过滤掉的子窗口将被提交给一连串的分类器,它们每一个都比前一个略微简单一点一个子窗口一旦被过滤掉,将不再得处处理级联检测的结构从本质上来说是一棵递减的决策树完整的人脸检测包含32个分类器,总共80000个操作然而这种级联结构可以得到特别快的检测速度在一张简单的图像上,包含507张人脸和7500万个子窗口,每个子窗口用了平均270条微处理命令
1.1总述论文的下面部分争论检测的实现,相关理论,和试验结果其次部分将详述特征的形式和快速计算的方案第三部分将争论如何将这些特征合并起来形成一个分类器机器学习方法用了adaboost变量,同时它也可以作为特征选择机制虽然以这种方式构建的分类器拥有良好的性能,但作为实时应用的分类器仍旧相差甚远第四部分描述了如何将分类器级联起来组成一个牢靠有效的物体检测器第五部分给出了大量试验结果,包括我们这个试验方法的详细描述最终第六部分包含系统和相关系统之间关系的争论图表1所示为待检测窗口中的矩形特征范例灰色部分的像素和减去白色部分的像素和双矩形特征如(A)(B)所示三矩形特征如(C)所示,四矩形特征如(D)所2特征我们这个物体检测算法是基于简洁特征的值有很多的缘由促使我们使用特征而不是直接使用像素最主要的缘由由于特征本身可以供应对图像中的区域特征的编码方式还有个缘由就是选出的特征数量会远远小于图像中像素的数量,所以基于特征的系统明显要比基于像素的系统快这些简洁的特征通过Haar基本函数来计算更明确地说,我们有三种特征,也就是图表1中所示的3种矩形特征假设基本的检测矩形是24x24那么全部的矩形特征是特别的浩大,有45396个积分图IntegralImage针对已经引入的矩形特征,为了进一步降低所需要的计算成本我们引入了积分图的概念这是一种对原图像的中间表达方式,这种表达方式可以使得矩形特征的值能特别快地得到计算所谓的积分图像其实就是对原图的一次双重积分先是按行积分,然后是按列积分X那么它的积分表示即为其中,是原图像,/XJ是积分图像又由于我们计算的是原图中某一点左上方全部象素值的和,可见是一个离散的加和,因此在点xy的积分图像的计算方法就如下所示其中iixy是计算后的积分图像,ixy是原图像见图5\图5:在xy点的积分图像的值是全部在这个点的左上方的点的和图6:在矩形D中的像素和可以通过四点计算得到在点1的积分图像的和可以通过矩形A内的点的和得到在点2的值就是A+B在点3的值就是A+C在点4的值就是A+B+C+D在D内的点的和可如下计算得到4+1-2+3假如使用以下函数:其中sxy是每列的和,sx-l=Oii-ly=O积分图像可以在对原图的一次遍历后计算得到假如使用积分图像,那么任何矩形中的象素和都能通过四个顶点的值计算出来见图61明显,双矩形特征的值可以通过八个顶点计算得到然而,双矩形特征包括了两个相邻的矩形和,因此它们可以用六个顶点的值计算得到假如是三矩形就是八个点,四矩形就是九个点见图7%图7:四种不同矩形特征计算示所需要的顶点的值特征A的值为6-5-3+2X5-2-4+1;特征B的值为:4-3-2+1-6-4-5+3;特征C的值为:7-6-3+2-6-5-2+1-8-7-4+3;特征D的值为:6-S-3+2+8-7-S+4-5-4-2+1-9-8-6+
52.2特征争论我们可以看到,在一般的人脸检测中都需要对被检测图像从大到小做多层的缩放,一般的缩放比率为
1.25即所谓的金字塔模型如图1所示0然后对每一层的图像进行扫描检测,最终定位出人脸的位置一般状况下,都会使用固定窗口大小来对缩放后一般是缩小的待检测图像进行扫描在常规硬件上实现15帧/s的速度是特别困难的相反我们已经定义了一套有意义的特征,这些特征可以用简洁的操作对任何尺度任何位置的简洁特征进行评估我们将在第4部分展现如何将有效的人脸检测器用简洁的二矩形特征来构建由于这些特征的可计算性,人脸检测的过程完全可以达到15帧/s,比计算11层的金字塔图像花费的时间更少3学习分类器函数给定一套特征和一套训练正例及负例图像,任何机器学习算法可以用来学习一个分类器函数回忆一下,我们之前讲过一个24x24的图像子窗口有45396个矩形特征,远超过它的像素数目尽管每个特征可以特别有效地计算出来,计算全部的特征也是特别耗时的我们假设小数量的特征可以合并形成一个有效的分类器,并且这项假设得到试验的证明现在最主要的挑战是找到这些特征在我们这个系统中,Adaboost中的一个变量用来选择特征和训练分类器在它原始形式中,Adabooost学习算法用来提高分类器的学习算法的性能它通过合并一系列弱分类器函数来形成一个强分类器这种简洁学习算法被称为弱学习机我们称其为学习机是由于,这个分类器的学习算法会对一个分类器集做一个搜寻,运用选择算法来找出那些分类错误最小的分类器,这是一个学习的过程而这种学习机被称为弱学习机是由于我们不希望那些被找出来的分类器,哪怕是最好的分类函数,能特别好的区分训练数据(而更多的可能性是,在给定一个问题后,这个所谓最好的分类器很可能就只有在51%即一半强一点的状况下得到最好的分类结果X为了让弱学习机能构架起来,它被用于解决一个多重的,循环的学习问题在第一轮的学习结束以后,训练集范例将被重新赋权值,目的是为了强调那些被前一个弱分类器错误分类的范例而最终的强分类器由很多带权值的弱分类器组成,并且其本身还有个阈值AdaBoost学习过程本身供应的保证是特别强大的Freund和Schapire证明白强分类器的训练错误随着轮数的增加呈指数靠近零更重要的是,已经有一组试验结果证明白一般化的训练结果能证明这一点的关键是这种一般化结果是和训练集范例的边缘增长特别相关的,而AdaBoost正好能够很快的获得较大的边缘增长传统的AdaBoost学习过程可以简洁的理解为一种贪心法特征选取过程考虑到学习过程的一个普遍的问题,就是在学习过程中有一个很大的分类函数集,需要以不同的权重(类似投票法)把它们连接起来那么,这之中最大的问题就是如何给好的分类器安排大的权值而给不好的分类器安排较低的权值AdaBoost是一种很高效的机制,它能选出很小一部分并且具有多样性的优秀分类器假如把选取的特征和简洁分类器等同起来(就如前面章节中提到的基于单个特征的简洁分类器构造方法一样)AdaBoost也能很有效的找出很小一部分的特征,并且这些特征是有明显区分的为了达到上述目的,需要在分类函数中限制弱学习器,我们把弱学习算法设计成选择能分开正例和负例的简洁的矩形特征对于每个特征,弱学习器打算了最优阈值分类函数这样可以尽量削减分类错误因此,一个弱分类器可以用如下公式表示其中乙⑴就是基于简洁特征的分类器,x就是24x24待检测子窗口,力(X)就是对于子窗口x的矩形特征值计算函数,P」就是一个符号因子(对于不同的特征,计算得到的特征值中有可能负例的值小于正例,也有可能负例的值大于正例,因此正例不都是小于区分正负例的阈值的,也有可能大于,所以引入一个符号因子来确定不等式方向),,就是对应分类器的阈值事实上全部的单一特征都不行能达到特别低的错误率那些在早期被选定的特征一般都会有0到
0.3的错误率,而到了后期,由于选择越来越困难,所以特征产生的错误率有可能在
0.4到
0.5之间详细的算法如表3所示。
个人认证
优秀文档
获得点赞 0