光电工程  2018, Vol. 45 Issue (8): 180111      DOI: 10.12086/oee.2018.180111     
改进的HOG-CLBC的行人检测方法
程德强1 , 唐世轩1 , 冯晨晨1 , 游大磊1,2 , 张丽颖1     
1. 中国矿业大学信息与控制工程学院,江苏 徐州 221116;
2. 河南应用技术职业学院信息工程学院,河南 开封 475000
摘要:传统的基于HOG与LBP的特征融合行人检测方法光谱信息损失多、对噪声较为敏感,原始的LBP算法对不均匀的光照变化鲁棒性差,对纹理特征的旋转不变性差。为了克服以上缺点,本文提出了一种基于CLBC和HOG特征融合的行人检测算法。首先,计算原始图像的CLBC特征,并计算基于CLBC纹理特征谱的HOG特征。接着计算原始图像的HOG特征以提取图像的边缘特征。然后将图像的三种特征融合来描述图像,并使用PCA方法降低特征维度,最后使用HIKSVM分类器实现最终对行人的检测。本文分别在Caltech行人数据库和INRIA行人数据库进行实验以验证所提出算法的有效性。实验结果表明,本文所提出的算法有效地提高了行人检测的精度。
关键词行人检测    方向梯度直方图    完备的局部二值编码    特征提取    特征融合    
Extended HOG-CLBC for pedstrain detection
Cheng Deqiang1, Tang Shixuan1, Feng Chenchen1, You Dalei1,2, Zhang Liying1     
1. School of Information and Control Engineering, China University of Mining and Technology, Xuzhou, Jiangsu 221116, China;
2. School of Information Engineering, Henan Vocational College of Applied Technology, Kaifeng, Henan 475000, China
Abstract: The traditional feature fusion method based on HOG and LBP loses much spectral information, and it is more sensitive to noise. The original LBP algorithm has poor robustness to uneven illumination changes and poor rotation invariance to texture features. In order to overcome these shortcomings of the method, this paper proposes a pedestrian detection algorithm based on the feature fusion of CLBC and HOG. First, the CLBC feature of the original image is calculated, and the HOG feature based on the CLBC texture feature spectrum is calculated. The HOG feature of the original image is then calculated to extract the edge feature of the image. Then three features of the image are fused to describe the image, and after that we use principal component analysis to reduce the feature dimension. Finally, the detection of the pedestrian is realized by using the HIKSVM classifier. In this paper, experiments are carried out in Caltech pedestrian database and INRIA pedestrian database to verify the effectiveness of the proposed algorithm. The final experimental results show that the proposed algorithm improves the accuracy of pedestrian detection.
Keywords: pedestrian detection    HOG    CLBC    feature extraction    feature fusion    

1 引言

行人检测广泛应用于计算机视觉领域,如安防、智能机器人、视觉监控和行为分析等。由于复杂多变的环境因素、不同的拍摄角度以及人类行为的多样性,行人检测的准确性有待提高。与具有固定形状的刚性目标不同,行人会在姿态不同、遮挡和观察角度变化等方面影响检测效果。因此,行人检测算法的研究仍然是计算机视觉领域的一个重要课题。

在计算机视觉领域中,行人检测一直都是研究的热点。近年来,大量的行人检测算法不断提出,国内外学者也进行了相关的总结[1-3]。随着深度学习概念的提出,越来越多的深度学习算法被应用于行人检测当中。联合深度学习[4]提出了形变层,对物体部件间的几何形变进行建模;多阶段深度学习[5]对在物体检测中经常使用的级联分类器进行了模拟;可切换深度网络[6]对物体各个部件的混合模型表达;文献[7]通过迁移学习将一个深度模型行人检测器自适应到一个目标场景。

行人检测大致可以看作是将提取特征和设计分类器相结合,从未知图像或视频中自动检测存在的目标。在行人检测系统中,将方向梯度直方图(histogram of oriented gradient, HOG)特征与局部二值模式(local binary pattern, LBP)特征相结合,并采用直方图交叉核支持向量机(histogram intersection kernel support vector machine, HIKSVM)分类器进行分类的检测模式得到了广泛使用,并取得了不错的结果。其中,在特征提取方面,HOG特征[8]和LBP特征[9]分别得到了广泛的应用,越来越多的专家学者也在致力于对已有特征进行优化。

使用HOG及其改进算法[10-12]获得了较好的实验结果。然而由于梯度的性质,HOG描述子对噪声相当敏感。LBP是描述局部图像模式的简单而有效的算子,许多其改进的算子[13-18]也被提出用于提取图像的纹理特征。然而,原始的LBP以及改进的LBP算子对于提取局部灰度差异信息的效果不佳,且具有对噪声鲁棒性差、旋转不变性差等问题。而且,传统的基于HOG与LBP的特征融合行人检测方法也存在谱信息损失多、对噪声较为敏感等问题。

针对HOG-LBP行人检测方法中存在的缺陷,基于HOG与完备的局部二值计数(completed local binary count, CLBC)[19],本文提出一种改进的HOG-CLBC行人检测方法。其中,为了提取原始图像的边缘特征和纹理特征,分别计算图像的方向梯度直方图特征[8]和完备的局部二值计数特征[19],同时基于完备的局部二值计数纹理特征谱计算方向梯度直方图特征。然后将得到的三种特征按串行方式进行融合,得到最终的图像描述子,并且利用主成分分析法(principal component analysis, PCA)来降低特征维度。最后使用HIKSVM分类器[20]进行分类实现检测。所提出方法既可以降低特征维度,又不会丢失图像的边缘信息,并且对图像的纹理特征具有高度的旋转不变性,可以获得较为令人满意的行人检测结果。本文采用的行人检测算法优势在于:

1) 对于纹理特征的描述,本文使用完备的局部二值计数的算法,相较于传统的LBP算法及其变体,此算法对纹理特征具有很好的旋转不变性,并提高了对噪声的鲁棒性,且不会丢失图像的局部二值灰度差异信息;

2) 使用方向梯度直方图可以很好地描述图像的边缘结构特征,有利于描述局部的形状信息,对偏移、旋转和光照具有鲁棒性;

3) 计算基于完备的局部二值计数的纹理特征谱的方向梯度直方图,用于描述纹理特征谱的边缘梯度特性,既保留了纹理特征谱的边缘特征,又不会损失局部细节特征;

4) 融合以上三种特征描述子,同时保留了图像的纹理特征谱特征和边缘信息,提高了检测的精度。行人检测实现方法的具体流程如图 1所示。

图 1 基于改进HOG-CLBC的行人检测算法流程图 Fig. 1 Flow chart of extended HOG-CLBC for pedstrain detection
2 完备的局部二值计数 2.1 完备的局部二值模式(CLBP)

为了提高LBP描述子的鉴别能力,Guo等人[16]提出了CLBP描述子,将图像局部差分解为两个互补成分,即符号(sp)和幅值(mp),分别为

${s_p} = s({g_p} - {g_{\rm{c}}}), \;{m_p} = |{g_p} - {g_{\rm{c}}}|, \;s(x) = \left\{ \begin{array}{l} 1, x \geqslant 0 \hfill \\ 0, x < 0 \hfill \\ \end{array} \right., $ (1)

其中:gp(p=0, …, P-1)为在半径为R的圆上的相邻像素的灰度值,gc为中心像素的灰度值,P为相邻像素的总数。分别对两个算子SCLBPMCLBP进行编码,其中SCLBP等同于传统的LBP,并且MCLBP测量局部的幅度变化。MCLBP可以定义如下:

${M_{{\rm{CLBP}}}}(P, R) = \sum _{p = 0}^{P - 1}t({m_p}, c){2^p}, \;t\left( {x, c} \right) = \left\{ \begin{array}{l} 1, x \geqslant c \hfill \\ 0, x < c \hfill \\ \end{array} \right., $ (2)

其中:阈值c被设为整幅图片的mp的均值。Guo等[16]观察到表示图像局部灰度级的中心像素也具有判别信息。因此,定义了一个名为CCLBP的算子来提取局部中心信息如下:

${C_{{\rm{CLBP}}}}(P, R) = t({g_{\rm{c}}}, {c_{\rm{I}}}), $ (3)

其中:阈值cI被设为整幅图片的平均灰度级。通过结合SCLBPMCLBPCCLBP这三个算子,改进了描述子的旋转不变性。

2.2 局部二值计数(LBC)

在原始的LBP及其变体中,局部相邻集中的每个像素通过与中心像素进行比较变成二进制形式。然后这些二进制值被编码以形成局部二进制模式。在LBC中,不是对它们进行编码,而是只计算二进制相邻集中的值1的数量。LBC的编码原理如图 2所示。在二进制相邻集中,值1的个数为4,因此中心像素的LBC码也是4。

图 2 LBC的编码原理 Fig. 2 LBC coding principle

因此,LBC的计算过程定义如下:

$LBC(P, R) = \sum _{p = 0}^{P - 1}s({g_p} - {g_{\rm{c}}}), s(x) = \left\{ \begin{array}{l} 1, x \geqslant 0 \hfill \\ 0, x < 0 \hfill \\ \end{array} \right., $ (4)

其中:gcgpPR都是变量,在式(1)中被定义。实际上,LBP和LBC的主要区别在于,LBP使用二进制数来编码局部模式,而LBC只计算局部相邻集中的值1的数目。但是他们的意义是非常不同的。通常情况下,LBP将重点放在以各种模式为特征的局部结构信息上,而LBC仅涉及有多少像素具有比局部区域中心像素相对较高的灰度。换句话说,LBP可以提取局部结构信息,而LBC仅仅关注局部二值灰度差异信息。实际上,在局部邻域集中的局部二值灰度差分信息是强度量化后的比较关系。

宏观纹理可以看作是大量局部微观模式的重复,选择的局部微观模式的统计可以表征整个纹理。真实图像中的宏观纹理结构可能由许多不同的局部二值微结构组成。不同的宏观纹理结构可能由许多相似的微观结构组成,但这些微观结构出现的频率是不同的。因此,宏观纹理结构可以通过微观结构的统计来表征,而不是微观结构本身。通常认为局部二值模式可以通过检测“微观结构”来有效地表征局部纹理。但这些微观结构并不直接表示宏观纹理结构。LBP通过使用局部二进制编码来有效地表征局部像素的分布。虽然LBC码不表示视觉微观结构,但LBC特征可以区分局部像素的不同分布。因此,LBC特征的统计也可以用来表示宏观纹理结构。

2.3 完备的局部二值计数(CLBC)

与CLBP类似,本文使用完备的局部二进制计数(completed local binary count, CLBC)来提取完整的局部纹理信息,其包含三个算子:SCLBCMCLBCCCLBC。通常,SCLBC等同于上述的原始LBC。为了用与SCLBC一致的格式编码MCLBC,可以将MCLBC定义为

${M_{{\rm{CLBC}}}}(P, R) = \sum _{p = 0}^{P - 1}s({m_p} - c), {m_p} = |{g_p} - {g_{\rm{c}}}|, $ (5)

其中:gcgps(x)在式(1)中被定义,c表示整幅图片中mp的均值。MCLBC计算有多少相邻像素具有比中心像素高得多的强度,因此它被用来提取局部强度差异的附加信息。

在文献[16]中已经证明,中心像素可以用来表示图像中的局部灰度。因此,CCLBC的定义可以和CCLBP类似。

最后,为三个算子建立三维联合(3D-joint)方式来组合SCLBCMCLBCCCLBC算子,用“S/M/CCLBC”表示。如图 3所示为提取CLBC特征的流程图。

图 3 CLBC特征提取流程图 Fig. 3 CLBC feature extraction flow chart
3 基于LBC纹理特征谱的HOG 3.1 方向梯度直方图

HOG是一种用于提取人体的外形信息和运动信息以解决行人检测问题的描述子,此方法采用方向梯度直方图特征来对行人进行描述以构建特征集。

生成HOG特征的过程如图 4所示。将待检测图像分割成数个block,相邻的4个cell可组成一个block,其中,8×8个像素可组成一个cell。在block与block之间,本文采取重叠2个cell的形式来滑动。采用模板$[ - 1, 0, 1]$为例计算图像梯度以及方向,通过梯度模板计算水平和垂直方向的梯度分别如下:

图 4 HOG特征生成过程流程图 Fig. 4 HOG feature generation process flow chart
$\left\{ \begin{array}{l} {G_x}(x, y) = H(x + 1, y) - H(x - 1, y) \hfill \\ {G_y}(x, y) = H(x, y + 1) - H(x, y - 1) \hfill \\ \end{array} \right.。$ (6)

梯度的幅值和方向角表示如下:

$\left\{ \begin{array}{l} \left| {\nabla f(x, y)} \right| = mag(\nabla f(x, y)) = \sqrt {G_x^2 + G_y^2} \hfill \\ \varphi (x, y) = \arctan \left( {\frac{{{G_y}}}{{{G_x}}}} \right) \hfill \\ \end{array} \right.。$ (7)

对所有像素点的直方图特征进行统计,从而得到每个cell的直方图特征,接下来便可获得每个block的直方图。最后,对每个block的直方图特征进行顺序级联,就能够得到图像的HOG特征。如图 5所示为对行人图像获取HOG特征的示例。

图 5 行人图像HOG特征示意图 Fig. 5 HOG feature diagram of pedestrian image
3.2 基于CLBC纹理特征谱的HOG

基于图 1中CLBC纹理特征谱的HOG的计算流程,为了有效地描述图像的纹理特征,并保留边缘信息和局部细节信息,本文采用对原始图像的CLBC纹理特征谱的边缘进行描述,即对CLBC纹理特征谱构建方向梯度直方图。

对于已获得的图像CLBC特征、HOG特征和基于CLBC纹理特征谱的HOG进行串行融和作为图像的特征描述子,并使用PCA对其降维。最后使用HIKSVM分类器[20]进行分类,最终实现行人检测。

4 实验结果及分析

为了对本文所提出的行人检测方法的有效性进行验证,分别在INRIA行人数据集和Caltech行人数据集上进行实验,并在INRIA行人数据集上用HOG[8]、HOG-LBP[11]算法比较分类结果,同时,本文实验另选取MultiFtr[21]、CoHLBP[22]和VJ[23]三种方法通过画出DET(detection error tradeoff)对比曲线,以论证本文算法在检测精度方面的优越性。DET曲线是对二元分类系统误码率的曲线图,表示错误拒绝率(false reject rate, FRR)与错误接受率(false accept rate, FAR)之间随着判断阈值变化关系,横轴和纵轴用log坐标轴表示,横坐标为false positive(FP),即错误正例,表示分类结果为正例而实际是负例;纵坐标为miss rate,即丢失率,是测试集正例被判别为负例的数目与测试集正例数目之比。DET曲线越靠近左下方表明该算法性能越好。

4.1 实验参数设置

实验硬件条件为:Windows 7系统,处理器为Intel(R) Xeon(R) CPU E5-2630 v2,算法实验平台为Matlab R2014a。Caltech行人数据集是一个30 f/s,分辨率为640×480,时长约10 h的规模较大的数据集,是由车载摄像机拍摄的一段通过市区街道的视频。INRIA行人数据集是一个包括各种场景且清晰度较高的静态行人检测数据库,训练时本文将正样本归一化为尺寸96×160的图片。实验中,在提取CLBC特征时,半径R=1,领域像素个数P=8。在提取HOG特征时,每个cell为8×8个像素,采取重叠2个cell的形式进行滑动,使用一维离散微分模板[-1,0,1]进行梯度运算。在提取基于CLBC纹理特征谱的HOG特征时,所有参数与以上参数设置一致。

4.2 Caltech行人数据集实验结果

图 6为本文所提出方法在Caltech行人数据集上的检测效果,可以明显发现本文检测方法能够准确检测行人。本文方法提取了原始图像的CLBC特征、HOG特征和基于CLBC纹理特征谱的HOG特征,并将这三种特征融合,由于HOG特征有利于描述局部的形状信息,对偏移、旋转和光照具有鲁棒性,而CLBC算法提高了对噪声的鲁棒性,不会丢失图像的局部二值灰度差异信息,很好地弥补了HOG算法对噪声较为敏感的缺陷,并且基于CLBC纹理特征谱的HOG特征既保留了纹理特征谱的边缘特征,又不会损失局部细节特征,所以由实验结果可明显看出本文所提出的方法对复杂背景、光照以及噪声鲁棒性强。

图 6 Caltech行人数据集检测效果 Fig. 6 Caltech pedestrian data set test results

图 7为本文所提出方法与对比方法的DET曲线对比试验结果,可以发现虽然相较于其他对比方法的DET曲线,本文方法的DET曲线偏左下方幅度并不明显,但是如表 1所示当每幅图的误检数目(false positive per image, FPPI)值为10-1时,本文方法的miss rate值最低,因此本文方法在检测精度上性能较优于对比方法。

图 7 Caltech行人数据集对比结果 Fig. 7 Caltech pedestrian data set comparison results

表 1 Caltech数据集下6种算法的miss rate值 Table 1 The miss rate value of the six algorithms under the Caltech dataset
行人检测算法 VJ HOG MultiFtr HOG-LBP CoHLBP HOG-CLBC
Miss rate/% 95 68 68 68 63 61
4.3 INRIA行人数据集实验结果

图 8为本文所提出方法在INRIA行人数据集上的检测效果,可以明显发现本文检测方法能够在复杂背景且较多行人的情况下较为准确地检测行人。本文方法提取了原始图像的CLBC特征、HOG特征和基于CLBC纹理特征谱的HOG特征,并将这三种特征融合,由于CLBC算法提高了对噪声的鲁棒性和旋转不变性,且HOG算法对偏移、旋转和光照具有鲁棒性,因此本文方法有利于在行人具有不同姿态和方向的情况下进行行人检测,而实验结果也明显可以看出在此情况下本文所提出的方法可以较为准确地对多行人场景进行检测。

图 8 INRIA行人数据集检测效果 Fig. 8 NRIA pedestrian data set test results

表 2所示为本文所提出方法与HOG算法以及HOG-LBP算法在INRIA行人数据集上的分类对比结果。其中表中所示特征提取时间为单幅大小为128×64的行人图像特征提取时间。与传统的HOG算法和HOG-LBP算法相比,本文所提出方法虽然特征提取时间略高于其他两种方法,但本文分类率相较于其他两种方法有着明显的提升(与HOG算法相比有超过9%的提升,与HOG-LBP算法相比提升超过5%),且在单幅图的特征提取时间上仅比HOG-LBP算法多0.01 s,所消耗的时间差距极小。因此本文所提出算法性能优于对比算法。

表 2 INRIA数据集下3种算法的分类结果对比 Table 2 Comparison of the classification results of 3 algorithms under the INRIA dataset
行人检测算法 分类率/% 每幅特征提取时间/s
HOG 89.08 0.739
HOG-LBP 93.07 0.767
HOG-CLBC 98.58 0.777

图 9所示为本文所提出方法与对比方法的DET曲线对比试验结果,可以发现本文方法不仅DET曲线相较于其他对比方法更偏于左下方,而且如表 2所示当FPPI值为10-1时,本文方法的miss rate值最低,因此本文方法在检测精度上性能明显优于对比方法。

图 9 INRIA行人数据集对比结果 Fig. 9 INRIA Pedestrian dataset comparison results

表 3 INRIA数据集下6种算法的miss rate值 Table 3 The miss rate value of the six algorithms under the INRIA dataset
行人检测算法 VJ HOG MultiFtr HOG-LBP CoHLBP HOG-CLBC
Miss rate/% 72 46 36 39 25 20
5 总结

本文提出了一种HOG算法和改进的CLBC算法相结合的行人检测方法,即基于改进HOG-CLBC行人检测算法。本文将原始图像的方向梯度直方图、基于完备的局部二值计数纹理特征谱的方向梯度直方图和完备的局部二值计数特征以顺序级联的方式进行融合,最后使用HIKSVM分类器来实现对行人的检测,对图像的纹理和边缘信息充分利用,且对噪声和光照具有鲁棒性,以及具有很好的旋转不变性。最终的实验结果表明,对于存在噪声和光照变换不均匀情况下的行人检测,本文提出的算法具有较为显著的优越性。

但是,本文方法在检测的实时性上还有待改进,对于行人大面积遮挡的问题检测效果也不是非常理想。在未来研究中,将主要致力于提升算法效率,优化分类器设计,减少分类时间,并且进一步优化LBP编码方式,融合更多特征,以提升在更复杂场景下的检测精度。

参考文献
[1]
Su S Z, Li S Z, Chen S Y, et al. A survey on pedestrian detection[J]. Acta Electronica Sinica, 2012, 40(4): 814-820.
苏松志, 李绍滋, 陈淑媛, 等. 行人检测技术综述[J]. 电子学报, 2012, 40(4): 814-820.
[2]
Benenson R, Omran M, Hosang J, et al. Ten years of pedestrian detection, what have we learned?[C]//Proceedings ofComputer Vision - ECCV 2014 Workshops, 2014: 613-627. http://www.springerlink.com/openurl.asp?id=doi:10.1007/978-3-319-16181-5_47
[3]
Dollar P, Wojek C, Schiele B, et al. Pedestrian detection: an evaluation of the state of the art[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(4): 743-761. DOI:10.1109/TPAMI.2011.155
[4]
Ouyang W L, Wang X G. Joint deep learning for pedestrian detection[C]//Proceedings of IEEE International Conference on Computer Vision, 2013: 2056-2063. http://ieeexplore.ieee.org/document/6751366
[5]
Zeng X Y, Ouyang W L, Wang X G. Multi-stage contextual deep learning for pedestrian detection[C]//Proceedings of IEEE International Conference on Computer Vision, 2013: 121-128. http://ieeexplore.ieee.org/xpls/icp.jsp?arnumber=6751124
[6]
Luo P, Tian Y L, Wang X G, et al. Switchable deep network for pedestrian detection[C]//Proceedings of Conference on Computer Vision and Pattern Recognition, 2014: 899-906. http://doi.ieeecomputersociety.org/10.1109/CVPR.2014.120
[7]
Zeng X Y, Ouyang W L, Wang M, et al. Deep learning of scene-specific classifier for pedestrian detection[C]//Fleet D, Pajdla T, Schiele B, et al. Computer Vision - ECCV 2014. Cham: Springer, 2014: 472-487. http://link.springer.com/10.1007/978-3-319-10578-9_31
[8]
Dalal N, Triggs B. Histograms of oriented gradients for human detection[C]//Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 2005: 886-893. http://ieeexplore.ieee.org/xpls/abs_all.jsp?arnumber=1467360
[9]
Ojala T, Pietikäinen M, Harwood I. A comparative study of texture measures with classification based on featured distributions[J]. Pattern Recognition, 1996, 29(1): 51-59. DOI:10.1016/0031-3203(95)00067-4
[10]
Tribak H, Moughyt S, Zaz Y, et al. Remote QR code recognition based on HOG and SVM classifiers[C]//Proceedings of International Conference on Informatics and Computing, 2017: 137-141. http://ieeexplore.ieee.org/document/7905704/
[11]
Wang X Y, Han T X, Yan S C. An HOG-LBP human detector with partial occlusion handling[C]//Proceedings of IEEE 12th International Conference on Computer Vision, 2010: 32-39. http://ci.nii.ac.jp/naid/10029956697
[12]
Fan G J, Li B, Mu W Q, et al. HOGG: Gabor and hog-based human detection[C]//Proceedings of 8th International Conference on Information Technology in Medicine and Education, 2016: 562-566. http://en.cnki.com.cn/Article_en/CJFDTotal-WXJY201621005.htm
[13]
Peng Z R, Zhao M R, Yang W M, et al. Improved multispectral aggregate channel for pedestrian detection[J]. Opto-Electronic Engineering, 2017, 44(9): 882-887.
彭志蓉, 赵美蓉, 杨伟明, 等. 改进的多光谱聚合通道行人检测[J]. 光电工程, 2017, 44(9): 882-887. DOI:10.3969/j.issn.1003-501X.2017.09.004
[14]
Zhao L H, Liu F, Wang Y J. Face recognition based on LBP and genetic algorithm[C]//Proceedings of Chinese Control and Decision Conference, 2016: 1582-1587. http://ieeexplore.ieee.org/document/7531236/
[15]
Liu Y C, Huang S S, Lu C H, et al. Thermal pedestrian detection using block LBP with multi-level classifier[C]//Proceedings of International Conference on Applied System Innovation, 2017: 602-605. http://ieeexplore.ieee.org/document/7988495/
[16]
Guo Z H, Zhang L, Zhang D. A completed modeling of local binary pattern operator for texture classification[J]. IEEE Transactions on Image Processing, 2010, 19(6): 1657-1663. DOI:10.1109/TIP.2010.2044957
[17]
Cheng W L, Wang X J, Wan Z J, et al. Research and implementation of target tracking algorithm in compression domain on miniaturized DSP platform[J]. Opto-Electronic Engineering, 2017, 44(10): 972-982.
程卫亮, 王向军, 万子敬, 等. 压缩域目标跟踪算法在小型化DSP平台上的研究与实现[J]. 光电工程, 2017, 44(10): 972-982. DOI:10.3969/j.issn.1003-501X.2017.10.005
[18]
Ji L P, Ren Y, Liu G S, et al. Training-based gradient lbp feature models for multiresolution texture classification[J]. IEEE Transactions on Cybernetics, 2017, pp(99): 1-14.
[19]
Zhao Y, Huang D S, Jia W. Completed local binary count for rotation invariant texture classification[J]. IEEE Transactions on Image Processing, 2012, 21(10): 4492-4497. DOI:10.1109/TIP.2012.2204271
[20]
Maji S, Berg A C, Malik J. Classification using intersection kernel support vector machines is efficient[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, 2008: 1-8. http://www.mendeley.com/research/classification-using-intersection-kernel-support-vectormachines-efficien/
[21]
Wojek C, Schiele B. A performance evaluation of single and multi-feature people detection[C]//Proceedings of the 30th DAGM symposium on Pattern Recognition, 2008: 82-91.
[22]
Watanabe T, Ito S. Two co-occurrence histogram features using gradient orientations and local binary patterns for pedestrian detection[C]//Proceedings of 2nd IAPR Asian Conference on Pattern Recognition, 2013: 415-419.
[23]
Viola P, Jones M J. Robust real-time face detection[J]. International Journal of Computer Vision, 2004, 57(2): 137-154. DOI:10.1023/B:VISI.0000013087.49260.fb