|
发布时间: 2018-08-16 |
图像分析和识别 |
|
|
收稿日期: 2017-12-20; 修回日期: 2018-03-05
基金项目: 国家自然科学基金项目(61405034,51475092,51175081)
第一作者简介:
何敏, 1992年生, 男, 东南大学自动化学院控制理论与控制工程硕士研究生, 主要研究方向为3D人脸识别。E-mail:18751959679@163.com;
邓星, 女, 东南大学自动化学院博士, 主要研究方向为3维人脸识别。E-mail:616909396@qq.com.
中图法分类号: TP391
文献标识码: A
文章编号: 1006-8961(2018)08-1163-08
|
摘要
目的 3维人脸点云的局部遮挡是影响3维人脸识别精度的一个重要因素。为克服局部遮挡对3维人脸识别的影响,提出一种基于径向线和局部特征的3维人脸识别方法。方法 首先为了充分利用径向线的邻域信息,提出用一组局部特征来表示径向线;其次对于点云稀疏引起的采样点不均匀,提出将部分相邻局部区域合并以减小采样不均匀的影响;然后,利用径向线的邻域信息构造代价函数,进而构造相应径向线间的相似向量。最后,利用相似向量来进行径向线匹配,从而完成3维人脸识别。结果 在FRGC v2.0数据库上进行不同局部特征识别率的测试实验,选取的局部特征Rank-1识别率达到了95.2%,高于其他局部特征的识别率;在Bosphorus数据库上进行不同算法局部遮挡下的人脸识别实验,Rank-1识别率达到了最高的92.0%;进一步在Bosphorus数据库上进行不同算法的时间复杂度对比实验,耗费时间最短,为8.17 s。该算法在准确率和耗时方面均取得了最好的效果。结论 基于径向线和局部特征的3维人脸方法能有效提取径向线周围的局部信息;局部特征的代价函数生成的相似向量有效减小了局部遮挡带来的影响。实验结果表明本文算法具有较高的精度和较短的耗时,同时对人脸的局部遮挡具有一定的鲁棒性。该算法适用于局部遮挡下的3维人脸识别,但是对于鼻尖部分被遮挡的人脸,无法进行识别。
关键词
3维人脸识别; 局部遮挡; 局部特征; 面部径向线; 区域合并
Abstract
Objective Face recognition technology has extensive applications in many fields because of its user-friendly and intuitive nature. According to input data, face recognition can be divided into 2D and 3D. Traditional 2D face recognition technology is based on image or video information. Although 2D face recognition technology has achieved a great success, its limitations, which are mostly caused by illumination, posture, and makeup, remain difficult to address. Unlike traditional 2D face recognition, 3D face recognition is based on the 3D data of human face, such as 3D point cloud and mesh. Although 3D face recognition technology is less affected by illumination, pose, and makeup, partial occlusion in 3D face is an important factor that affects its accuracy rate. The problem is that collected face data are always occluded by external objects, such as hands, hair, and glasses. Therefore, 3D face recognition with partial occlusions becomes an important research subject. To reduce the influence of partial occlusions in 3D face recognition, a novel 3D face recognition algorithm based on radial strings and local feature is proposed. Method This 3D face recognition algorithm includes four main parts. First, the nasal tip on 3D face data using shape index is located, the radial strings are extracted, and then the uniform sampling on every radial strings is produced. To fully use the neighbor information of radial strings, a radial string representation that encoded radial strings into local feature is proposed. In this algorithm, we extract three local features, namely, the center of every two adjacent sample points, the area of local region, and the histogram of slant angle. Local feature descriptors with these local features to represent local region are then constructed. Second, sparse cloud points lead to nonuniform sample points and subsequently to large errors in the matching result. To address this problem, an operator that merges adjacent local regions is adopted. Third, cost function of the local feature on the corresponding local region and similarity vectors of the corresponding radial strings with this cost function are constructed. Finally, the corresponding radial strings according to these similarity vectors are matched, and the 3D face by the result of all radial strings are recognized. Result The experiments are conducted on the basis of the FRGC v2.0 and Bosphorus databases. FRGC v2.0 is a large-scale public 3D face database, which is composed of 466 subjects and 4007 3D point cloud. Bosphorus database is a new 3D face database, which is composed of 105 subjects and 4666 3D point cloud, and this database consists of partial occlusions at different levels. We select 300 subjects with neutral and not occluded 3D face point cloud to test the recognition rate of different local features. Consequently, the rank one recognition rate is 95.2%, 0.9%, and 2.4% higher than the other two local features, because FRGC v2.0 database is standard and at a high level. Although one local feature is only 0.9% higher than the second local feature, those local features promote the convenience of merging adjacent local regions. We then choose 300 3D face point cloud from Bosphorus database to perform the experiments of recognition rate and time with partial occlusions 3D face. The rank one recognition rate is 92.0%, 2.7%, 3.0%, and 0.4% higher than the other three recognition methods. The experiment is performed within 8.17 s, which is lower than that of the other recognition methods, and is 2.05 s, 0.18 s, and 34.43 s less than the other three methods, respectively. In those experiments, our methods receive the best result based on its recognition rate and recognition time. Conclusion The proposed method of 3D face recognition based on radial strings and local feature extracts the adjacent information of radial strings effectively, thereby constructing cost function of corresponding local regions with the adjacent information to achieve region matching. The similarity vector that is constructed using the cost function of the local feature reduces the influence of partial occlusions effectively. This result demonstrates that the proposed algorithm achieves high recognition rates and is robust to partial occlusions. This 3D face recognition method is suitable in recognizing faces with partial occlusions. However, this method is inapplicable when the nasal tip is occluded because this method must locate the position of nasal tip.
Key words
three dimensional face recognition; facial partial occlusions; local feature; radial strings; region merging
0 引言
由于人脸识别技术具有优良的非接触性、隐蔽性以及广泛的应用前景,近30年来,很多研究人员投身到人脸识别的研究当中[1-2]。尽管之前已经有大量2维人脸识别的研究,但是仍然无法克服光照和姿态带来的影响。而在3维人脸中,几何信息和相对位置信息相对稳定,因此相比于传统的2维人脸识别,3维人脸识别对光照、姿态和表情更加地鲁棒。因而近些年来,越来越多的研究者从2维人脸识别的研究转为对3维人脸识别的研究。而且到目前为止,诸多研究人员提出了很多有效的3维人脸识别方法[3-5]。
但是,现在的3维人脸识别算法多数是基于严格控制条件下采集到的数据,这种情况下的3维人脸点云数据大多都是正面的、没有遮挡的点云。然而,在现实情况中,3维人脸数据往往只能在非控制的情况下采集得到。此时,3维人脸数据常常会带有遮挡,如头发、眼镜、手等造成的面部遮挡。在这种情况下,大量针对非遮挡点云的3维人脸识别算法的表现难以让人满意。因此,针对遮挡情况下的3维人脸识别,成为极有意义的研究方向和研究难点。
Alyuz等人[6]提出了一种遮挡投影(masked projection)对人脸的子空间进行处理。文章先进行鼻子区域检测,再利用其他模块和鼻子区域的偏移向量定位出24个对称模块。最后通过24个模块的排列组合得到40个不同的配准表。文献[7]提出遮挡的人脸在遮挡区域会出现明显的不同,基于这个理论,Alyuz等人计算输入人脸和平均人脸在不同区域的绝对差来检测人脸的遮挡区域。匹配时通过去除遮挡的部分,在配准表里选择合适的子空间并提取相应的子空间特征进行人脸匹配。Drira等人[8]提出,分析和比较从鼻尖点出发的人脸径向线的形状,对每条径向线使用递归ICP(iterative closest point)算法检测和移除遮挡部分。通过测试集曲线可见部分和训练得到的曲线信息构建稀疏模型,在合适的向量空间使用PCA(principal component analysis)得到正交基来表示训练集中的人脸形状。然后通过这组基得到测试集曲线可视部分的相应参数,从而用相应的参数估计出曲线的完整形状。在匹配的阶段,提出将曲线的最优匹配转化为最优化参数的问题。最后在黎曼空间中构建目标函数,用最近邻分类器完成识别实验。Yu等人[9]提出用Douglas-Peucker算法[10]将以鼻尖点为中心的径向线折线化,将3维的曲线转化到2维平面上来求解。对于特征点的增加、缺失或偏移,文献[9]基于文献[11],对于拐点的定位大于一定的范围时提出了一种合并的策略。通过计算折线中各个子线段和合并之后的线段的代价函数,用动态规划的算法生成相应径向线的相似矩阵。该方法虽然对表情变化和局部遮挡有一定的鲁棒,但是由于用Douglas-Peucker算法在每条径向线上定出拐点的数目不同,因此需要构造出相应径向线间的2维相似矩阵来进行匹配。
受文献[9]启发,选择从鼻尖点出发的径向线来表示人脸。针对径向线的特点,对径向线进行截取和采样。同时,受到3维人脸识别中基于局部特征方法[12-13]的启发,提取采样点之间的局部区域,并在局部区域内提取局部特征,用径向线周围的局部信息来代替线段信息,以此增大径向线的有效信息。对于点云局部遮挡情况下的径向线匹配,通过均匀采样将文献[9]中的2维相似矩阵转化为具有局部匹配特性的1维相似向量,从而降低时间复杂度。在文献[9]中,针对Douglas-Peucker算法定出的拐点位置偏移较大的情况采取了合并相邻线段的思想,借鉴这个思想,本文对于点云稀疏的3维人脸点云采样不均匀的问题,也采用合并相邻局部区域的思想。具体介绍如下文所示。
1 基于径向线的局部特征提取
首先提取3维人脸的径向线,同时对径向线进行截取和采样。提取相邻采样点之间的局部区域,最后在局部区域内提取3个局部特征构成局部特征描述子,这3个局部特征分别为局部区域的中心坐标,局部区域面积以及倾斜角直方图。
1.1 提取径向线
径向线指的是人脸对称面及其旋转平面和人脸曲面的交线。本文采用中心区域人脸镜像匹配法[14]来确定人脸对称面,中心区域是指以鼻尖点[15]为球心,以45 mm为半径的区域,如图 1(a)所示。设原始的中心区域为
1) 对输入的人脸,计算其中心区域
2) 对原始区域
3) 根据原始的区域
4) 在规范化的人脸点云中,将镜像对称面
1.2 提取局部特征
以经过鼻尖点的水平线为界,将人脸曲面分为上下两个部分。其中,下半部分包含嘴部区域,受表情影响较大[16],相对地,上半部分对表情有较强的鲁棒性。因此选择上半部分人脸区域内的径向线作为有效部分。然后在每一条径向线的有效部分内截取和采样。实验中以6.5 mm为间隔均匀采样。实验结果表明,包括鼻尖点在内,每条径向线采样11个点,可以很好地表示出径向线的有效部分,如图 2所示。
定义局部点云区域为:以相邻两个采样点之间的欧氏距离为直径,以两点的中心为球心画球,将其命名为采样球(sample ball),落在采样球内的人脸区域形成局部点云区域。由于每条径向线采样11个点,因此每条径向线上有10个局部点云区域。图 3(a) (b)分别表示没有遮挡和存在局部遮挡时的采样球,图中只展示了部分径向线。
在每个局部点云中,选取球体的球心坐标作为第1个局部特征。将点云网格化,选取局部区域中的点组成的所有三角面片面积和作为该区域的面积,以此作为第2个局部特征。除此之外,第3个局部特征选择较为复杂的倾斜角直方图
$ \alpha ({\boldsymbol{n}_i}, {\boldsymbol{l}_q}) = {\rm{arccos}}\frac{{{\boldsymbol{l}_q} \cdot {\boldsymbol{n}_i}}}{{\left| {{\boldsymbol{l}_q}} \right|}} $ | (1) |
式中,向量
提取出来的3个局部特征表示为:球心坐标
2 局部遮挡下的3维人脸识别
利用第1节提取的3个局部特征,构造出对应径向线间对应局部区域的代价函数,再利用局部区域代价函数的计算结果生成对应径向线的相似向量,最后利用相似向量完成径向线匹配,从而完成3维人脸识别。
2.1 代价函数
令
根据第1部分提取的局部特征,径向线
$ \begin{array}{*{20}{l}} {Cost({P_A}\left\langle i \right\rangle ),{P_B}\left\langle i \right\rangle ) = \left| {{s_A}\left\langle i \right\rangle - {s_B}\left\langle i \right\rangle } \right| + }\\ {\;\;\;\;\;\;\;\;\;f({h_A}\left\langle i \right\rangle ,{h_B}\left\langle i \right\rangle ) + }\\ {\sqrt {\begin{array}{*{20}{l}} {{{({x_A}\left\langle i \right\rangle - {x_B}\left\langle i \right\rangle )}^2} + {{({y_A}\left\langle i \right\rangle - {y_B}\left\langle i \right\rangle )}^2} + }\\ {\;\;\;\;\;\;\;\;\;\;\;\;\;\;{{({z_A}\left\langle i \right\rangle - {z_B}\left\langle i \right\rangle )}^2}} \end{array}} } \end{array} $ | (2) |
$ \begin{array}{l} f({h_A}\left\langle i \right\rangle, {h_B}\left\langle i \right\rangle ) = \\ \arccos\frac{{{h_A}\left\langle i \right\rangle \cdot {h_B}\left\langle i \right\rangle }}{{\left| {{h_A}\left\langle i \right\rangle } \right| \times \left| {{h_B}\left\langle i \right\rangle } \right|}} \end{array} $ | (3) |
为对应的倾斜角直方图的夹角。
式(2)中的代价函数由3个部分构成,其中每一部分都是经过最大—最小原则归一化后得到的结果。
对于实际情况中可能存在点云稀疏造成的采样点偏移的现象,采用了一种合并算法[11]。原始的
$ \begin{array}{l} P_A^k\left\langle i \right\rangle = P\left\langle {(i-k + 1):i} \right\rangle = \\ \;\;\;\;P(i-k + 1) \cdots {P_A}\left\langle i \right\rangle \end{array} $ | (4) |
该合并算法对应的合并代价函数为
$ \begin{array}{l} \;\;\;\;\;\;\;Cost(P_A^k\left\langle i \right\rangle ) = \\ g\left( {\frac{{k-1}}{{{l^k}}}\sum\limits_{q = i-k + 1}^i {\Delta ({d^k}, {d_q}) \times {l_q}} } \right) \end{array} $ | (5) |
式中,
采取同时合并库集和测试集的合并策略,也就是库集和测试集合并区域的数目相同。因此对于合并后的区域集,其相似代价函数为
$ \begin{array}{*{20}{l}} {Cost(P_A^k\left\langle i \right\rangle ,P_B^k\left\langle i \right\rangle ) = \left| {s_A^k\left\langle i \right\rangle - s_B^k\left\langle i \right\rangle } \right| + }\\ {\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;f(h_A^k\left\langle i \right\rangle ,(h_B^k\left\langle i \right\rangle ) + }\\ {\sqrt {\begin{array}{*{20}{l}} {{{(x_A^k\left\langle i \right\rangle - x_B^k\left\langle i \right\rangle )}^2} + {{(y_A^k\left\langle i \right\rangle - y_B^k\left\langle i \right\rangle )}^2} + }\\ {\;\;\;\;\;\;\;\;\;\;\;\;\;\;{{(z_A^k\left\langle i \right\rangle - z_B^k\left\langle i \right\rangle )}^2}} \end{array}} } \end{array} $ | (6) |
式中,
2.2 径向线匹配
令
定义一个11×1的相似向量
$ \boldsymbol{P} = {[P(0), P(1), \cdots, P(10)]^{\rm{T}}} $ | (7) |
式中,
$ P(i) = \mathop {\max }\limits_k (T(k)) $ | (8) |
$ T(k) = \left\{ \begin{array}{l} P(i-k) + \Delta P\;\;\Delta P \ge 0\\ 0\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\Delta P < 0 \end{array} \right. $ | (9) |
式中,
总代价函数即为相似代价函数和合并代价函数之和,则相似参数
$ \Delta P = \gamma- \left[\begin{array}{l} Cost(P_A^k\left\langle i \right\rangle, P_B^k\left\langle i \right\rangle ) + \\ Cost(P_A^k\left\langle i \right\rangle ) + \\ Cost(P_B^k\left\langle i \right\rangle ) \end{array} \right] $ | (10) |
式中,
设
输入:
输出:
初始化:
for
for
$ \begin{array}{l} \Delta P = \gamma- \left[\begin{array}{l} Cost(P_A^k\left\langle i \right\rangle, P_B^k\left\langle i \right\rangle ) + \\ Cost(P_A^k\left\langle i \right\rangle ) + \\ Cost(P_B^k\left\langle i \right\rangle ) \end{array} \right]\\ T(k) = \left\{ \begin{array}{l} P(i -k) + \Delta P\;\;\Delta P \ge 0\\ 0\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\Delta P < 0 \end{array} \right. \end{array} $ |
计算相似向量中两条径向线的相似程度时,需先找出相似向量中的最大数,再确定与该数相关的数,将其置零。接着找到次大数,再将和次大数相关的数置零,依次类推。则两条径向线的相似值可以表示为
$ s({P_A}, {P_B}) = \sum\limits_{i = 1}^f {{p_i}} $ | (11) |
式中,
2.3 3维人脸识别
库集人脸和测试集人脸的相似值为提取出来的19条径向线的相似值之和。定义为
$ S = \sum\limits_{i =-9}^9 {s(P_A^\alpha, P_B^\alpha )} $ | (12) |
式中,
3 实验
3.1 局部特征测试实验
本小节在FRGC v2.0库上进行实验,该库包含中性和带表情的3维人脸模型,实验的目的是测试不同的局部特征的识别率。因为FRGC v2.0是大型的公共人脸库,点云质量高,因此选择在该库中进行局部特征识别率的测试实验。在该库中选取600个人脸作为训练集进行训练,得到的相似匹配阈值
表 1
不同局部特征的R1RR
Table 1
Rank-1 recognition rate for different local feature
从表 1可以看出,本文选取的局部特征具有较高的识别率。为了更充分地说明这些局部特征的有效性,使用CMC(cumulative match curve)曲线作为识别性能的指标,得到各算法的CMC曲线如图 5所示。该曲线主要反映最相似模型数目和识别率之间的关系。从图 5中的曲线可以看出,虽然随着最相似模型数目的增多,不同的局部特征在人脸识别率上的差距在减小,但是整体而言还是本文提出的局部特征有更好的人脸识别率。因此本文提出的局部特征能够获得更好的识别效果。
3.2 局部遮挡下的3维人脸识别实验
在Bosphorus库中存在不同部位被遮挡的点云,因此选择在该库中测试本文提出的方法对局部遮挡的鲁棒性。因为库中存在不同程度的遮挡,所以相似匹配阈值也相应的较大。在该人脸库中选择105个对象的1张没有遮挡的点云和3张带有遮挡的点云进行训练,得到的相似阈值
表 2
不同方法的R1RR
Table 2
Rank-1 recognition rate for different methods
表 2展示了不同方法的Rank-1识别率,在相同的人脸库上,本文方法具有最高的识别率,但和文献[9]相比仅仅提高了0.4%。由于和文献[9]使用Douglas-Peucker算法在每条径向线上定出的拐点数目不同,因此需要构造2维相似矩阵,使得时间复杂度较大,因此进一步将本文方法和其他方法的时间复杂度进行比较,实验结果如表 3所示。
表 3
不同方法的耗时
Table 3
Time for different methods
表 3展示了不同算法的耗时情况,在相同的人脸库上,本文算法的耗时远短于文献[9]。结合表 2和表 3的实验结果可以看出,本文具有最高的识别率,同时算法耗费的时间也是最短的,充分证明本文提出的算法是解决局部遮挡的有效算法。
4 结论
提出了一种基于径向线和局部特征的3维人脸识别算法,有效地处理了局部遮挡下的3维人脸识别问题。该方法利用镜像对称面绕鼻尖旋转得到径向线,选择径向线上半部分作为有效部分,然后在每1条径向线的有效部分内截取和采样。并以两个相邻采样点的欧氏距离为直径,以两个相邻采样点的中点为球心做球,切割点云得到局部区域。在局部区域内提取3个局部特征构成局部特征描述子。选择局部区域的中点坐标,局部区域面积以及倾斜角直方图作为3个局部特征。最后通过3个局部特征构造相关代价函数,利用代价函数的计算结果生成对应径向线间的相似向量完成径向线匹配,从而实现3维人脸识别。在基于FRGC v2.0数据库的实验中,本文算法得到95.2%的R1RR, 在Bosphorus数据库的试验中,本文算法得到92.0%的R1RR, 充分证明本文算法稳定且具有较高的识别率,并对局部遮挡具有良好的鲁棒性。
本文算法需要首先定位出鼻尖点,因此对于鼻尖被遮挡的点云无法进行识别,这个问题在后续的工作中将会进一步考虑。
参考文献
-
[1] Yuan H, Wang Z H, Jiang W T. Face recognition method based on frequency cluster[J]. Journal of Image and Graphics, 2016, 21(9): 1166–1177. [袁姮, 王志宏, 姜文涛. 基于频率簇模型的人脸识别[J]. 中国图象图形学报, 2016, 21(9): 1166–1177. ] [DOI:10.11834/jig.20160906]
-
[2] Zhu L, Zhu S A. Face recognition based on two-dimensional image principal component analysis[J]. Journal of Zhejiang University:Engineering Science, 2007, 41(2): 264–267. [祝磊, 朱善安. 基于2维广义主成分分析的人脸识别[J]. 浙江大学学报:工学版, 2007, 41(2): 264–267. ] [DOI:10.3785/j.issn.1008-973X.2007.02.016]
-
[3] Chang P P, Da F P, Mei J. Expression-robustness 3D face recognition based on facial profiles[J]. Journal of Image and Graphics, 2015, 20(3): 332–339. [常朋朋, 达飞鹏, 梅俊. 对表情鲁棒的面部轮廓线3维人脸识别[J]. 中国图象图形学报, 2015, 20(3): 332–339. ] [DOI:10.11834/jig.20150304]
-
[4] Wang Y M, Pan G, Wu Z H. A survey of 3D face recognition[J]. Journal of Computer-Aided Design and Computer Graphics, 2008, 20(7): 819–829. [王跃明, 潘纲, 吴朝晖. 3维人脸识别研究综述[J]. 计算机辅助设计与图形学学报, 2008, 20(7): 819–829. ]
-
[5] Berretti S, Werghi N, Del Bimbo A, et al. Matching 3D face scans using interest points and local histogram descriptors[J]. Computers & Graphics, 2013, 37(5): 509–525. [DOI:10.1016/j.cag.2013.04.001]
-
[6] Alyuz N, Gokberk B, Akarun L. 3-D face recognition under occlusion using masked projection[J]. IEEE Transactions on Information Forensics and Security, 2013, 8(5): 789–802. [DOI:10.1109/TIFS.2013.2256130]
-
[7] Colombo A, Cusano C, Schettini R. Gappy PCA classification for occlusion tolerant 3D face detection[J]. Journal of Mathematical Imaging and Vision, 2009, 35(3): 193–207. [DOI:10.1007/s10851-009-0165-y]
-
[8] Drira H, Ben Amor B, Srivastava A, et al. 3D face recognition under expressions, occlusions, and pose variations[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35(9): 2270–2283. [DOI:10.1109/TPAMI.2013.48]
-
[9] Yu X, Gao Y S, Zhou J. 3D face recognition under partial occlusions using radial strings[C]//Proceedings of 2016 IEEE International Conference on Image Processing. Phoenix, Arizona, USA: IEEE, 2016: 3016-3020. [DOI: 10.1109/ICIP.2016.7532913]
-
[10] Visvalingam M, Whyatt J D. The Douglas-Peucker algorithm for line simplification: re-evaluation through visualization[C]//Computer Graphics Forum. Blackwell Publishing Ltd. 1990, 9(3): 213-228.
-
[11] Tsai W H, Yu S S. Attributed string matching with merging for shape recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1985, PAMI-7(4): 453–462. [DOI:10.1109/TPAMI.1985.4767684]
-
[12] Guo M L, Da F P, Deng X, et al. 3D face recognition based on keypoints and local feature[J]. Journal of Zhejiang University:Engineering Science, 2017, 51(3): 584–589. [郭梦丽, 达飞鹏, 邓星, 等. 基于关键点和局部特征的3维人脸识别[J]. 浙江大学学报:工学版, 2017, 51(3): 584–589. ] [DOI:10.3785/j.issn.1008-973X.2017.03.021]
-
[13] Tang L L, Gai S Y, Da F P, et al. 3D Face recognition method based on the local binary pattern from vertical and horizontal on the mesh[J]. Chinese Journal of Scientific Instrument, 2016, 37(6): 1413–1420. [汤兰兰, 盖绍彦, 达飞鹏, 等. 基于网格纵横局部二值模式的3维人脸识别[J]. 仪器仪表学报, 2016, 37(6): 1413–1420. ] [DOI:10.3969/j.issn.0254-3087.2016.06.027]
-
[14] Pan G, Wang Y M, Qi Y P, et al. Finding symmetry plane of 3D face shape[C]//Proceedings of the 18th International Conference on Pattern Recognition. Hong Kong, China: IEEE, 2006: 1143-1146. [DOI: 10.1109/ICPR.2006.565]
-
[15] Li X L, Da F P. Efficient 3D face recognition handling facial expression and hair occlusion[J]. Image and Vision Computing, 2012, 30(9): 668–679. [DOI:10.1016/j.imavis.2012.07.011]
-
[16] Faltemier T C, Bowyer K W, Flynn P J. A region ensemble for 3-D face recognition[J]. IEEE Transactions on Information Forensics and Security, 2008, 3(1): 62–73. [DOI:10.1109/TIFS.2007.916287]
-
[17] Phillips P J, Flynn P J, Scruggs T, et al. Overview of the face recognition grand challenge[C]//Proceedings of 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. San Diego, CA, USA: IEEE, 2005: 947-954. [DOI: 10.1109/CVPR.2005.268]
-
[18] Savran A, Alyüz N, Dibeklioǧlu K, et al. Bosphorus database for 3D face analysis[C]//Proceedings of the 1st European Workshop on Biometrics and Identity Management. Roskilde, Denmark: Springer, 2008: 47-56.
-
[19] Colombo A, Cusano C, Schettini R. Detection and restoration of occlusions for 3D face recognition[C]//Proceedings of 2006 IEEE International Conference on Multimedia and Expo. Toronto, Ont., Canada: IEEE, 2006: 1541-1544. [DOI: 10.1109/ICME.2006.262837]