Print

发布时间: 2018-08-16
摘要点击次数:
全文下载次数:
DOI: 10.11834/jig.170646
2018 | Volume 23 | Number 8




    图像分析和识别    




  <<上一篇 




  下一篇>> 





结合径向线的局部遮挡下的3维人脸识别
expand article info 何敏1,2, 达飞鹏1,2, 邓星1,2
1. 东南大学自动化学院, 南京 210096;
2. 东南大学复杂工程系统测量与控制教育部重点实验室, 南京 210096

摘要

目的 3维人脸点云的局部遮挡是影响3维人脸识别精度的一个重要因素。为克服局部遮挡对3维人脸识别的影响,提出一种基于径向线和局部特征的3维人脸识别方法。方法 首先为了充分利用径向线的邻域信息,提出用一组局部特征来表示径向线;其次对于点云稀疏引起的采样点不均匀,提出将部分相邻局部区域合并以减小采样不均匀的影响;然后,利用径向线的邻域信息构造代价函数,进而构造相应径向线间的相似向量。最后,利用相似向量来进行径向线匹配,从而完成3维人脸识别。结果 在FRGC v2.0数据库上进行不同局部特征识别率的测试实验,选取的局部特征Rank-1识别率达到了95.2%,高于其他局部特征的识别率;在Bosphorus数据库上进行不同算法局部遮挡下的人脸识别实验,Rank-1识别率达到了最高的92.0%;进一步在Bosphorus数据库上进行不同算法的时间复杂度对比实验,耗费时间最短,为8.17 s。该算法在准确率和耗时方面均取得了最好的效果。结论 基于径向线和局部特征的3维人脸方法能有效提取径向线周围的局部信息;局部特征的代价函数生成的相似向量有效减小了局部遮挡带来的影响。实验结果表明本文算法具有较高的精度和较短的耗时,同时对人脸的局部遮挡具有一定的鲁棒性。该算法适用于局部遮挡下的3维人脸识别,但是对于鼻尖部分被遮挡的人脸,无法进行识别。

关键词

3维人脸识别; 局部遮挡; 局部特征; 面部径向线; 区域合并

Three dimensional face recognition under partial occlusions based on radial strings
expand article info He Min1,2, Da Feipeng1,2, Deng Xing1,2
1. School of Automation, Southeast University, Nanjing 210096, China;
2. Key Laboratory of Measurement and Control of Complex Systems of Engineering, Ministry of Education, Southeast University, Nanjing 210096, China
Supported by: National Natural Science and Foundation of China(61405034, 51475092, 51175081)

Abstract

Objective Face recognition technology has extensive applications in many fields because of its user-friendly and intuitive nature. According to input data, face recognition can be divided into 2D and 3D. Traditional 2D face recognition technology is based on image or video information. Although 2D face recognition technology has achieved a great success, its limitations, which are mostly caused by illumination, posture, and makeup, remain difficult to address. Unlike traditional 2D face recognition, 3D face recognition is based on the 3D data of human face, such as 3D point cloud and mesh. Although 3D face recognition technology is less affected by illumination, pose, and makeup, partial occlusion in 3D face is an important factor that affects its accuracy rate. The problem is that collected face data are always occluded by external objects, such as hands, hair, and glasses. Therefore, 3D face recognition with partial occlusions becomes an important research subject. To reduce the influence of partial occlusions in 3D face recognition, a novel 3D face recognition algorithm based on radial strings and local feature is proposed. Method This 3D face recognition algorithm includes four main parts. First, the nasal tip on 3D face data using shape index is located, the radial strings are extracted, and then the uniform sampling on every radial strings is produced. To fully use the neighbor information of radial strings, a radial string representation that encoded radial strings into local feature is proposed. In this algorithm, we extract three local features, namely, the center of every two adjacent sample points, the area of local region, and the histogram of slant angle. Local feature descriptors with these local features to represent local region are then constructed. Second, sparse cloud points lead to nonuniform sample points and subsequently to large errors in the matching result. To address this problem, an operator that merges adjacent local regions is adopted. Third, cost function of the local feature on the corresponding local region and similarity vectors of the corresponding radial strings with this cost function are constructed. Finally, the corresponding radial strings according to these similarity vectors are matched, and the 3D face by the result of all radial strings are recognized. Result The experiments are conducted on the basis of the FRGC v2.0 and Bosphorus databases. FRGC v2.0 is a large-scale public 3D face database, which is composed of 466 subjects and 4007 3D point cloud. Bosphorus database is a new 3D face database, which is composed of 105 subjects and 4666 3D point cloud, and this database consists of partial occlusions at different levels. We select 300 subjects with neutral and not occluded 3D face point cloud to test the recognition rate of different local features. Consequently, the rank one recognition rate is 95.2%, 0.9%, and 2.4% higher than the other two local features, because FRGC v2.0 database is standard and at a high level. Although one local feature is only 0.9% higher than the second local feature, those local features promote the convenience of merging adjacent local regions. We then choose 300 3D face point cloud from Bosphorus database to perform the experiments of recognition rate and time with partial occlusions 3D face. The rank one recognition rate is 92.0%, 2.7%, 3.0%, and 0.4% higher than the other three recognition methods. The experiment is performed within 8.17 s, which is lower than that of the other recognition methods, and is 2.05 s, 0.18 s, and 34.43 s less than the other three methods, respectively. In those experiments, our methods receive the best result based on its recognition rate and recognition time. Conclusion The proposed method of 3D face recognition based on radial strings and local feature extracts the adjacent information of radial strings effectively, thereby constructing cost function of corresponding local regions with the adjacent information to achieve region matching. The similarity vector that is constructed using the cost function of the local feature reduces the influence of partial occlusions effectively. This result demonstrates that the proposed algorithm achieves high recognition rates and is robust to partial occlusions. This 3D face recognition method is suitable in recognizing faces with partial occlusions. However, this method is inapplicable when the nasal tip is occluded because this method must locate the position of nasal tip.

Key words

three dimensional face recognition; facial partial occlusions; local feature; radial strings; region merging

0 引言

由于人脸识别技术具有优良的非接触性、隐蔽性以及广泛的应用前景,近30年来,很多研究人员投身到人脸识别的研究当中[1-2]。尽管之前已经有大量2维人脸识别的研究,但是仍然无法克服光照和姿态带来的影响。而在3维人脸中,几何信息和相对位置信息相对稳定,因此相比于传统的2维人脸识别,3维人脸识别对光照、姿态和表情更加地鲁棒。因而近些年来,越来越多的研究者从2维人脸识别的研究转为对3维人脸识别的研究。而且到目前为止,诸多研究人员提出了很多有效的3维人脸识别方法[3-5]

但是,现在的3维人脸识别算法多数是基于严格控制条件下采集到的数据,这种情况下的3维人脸点云数据大多都是正面的、没有遮挡的点云。然而,在现实情况中,3维人脸数据往往只能在非控制的情况下采集得到。此时,3维人脸数据常常会带有遮挡,如头发、眼镜、手等造成的面部遮挡。在这种情况下,大量针对非遮挡点云的3维人脸识别算法的表现难以让人满意。因此,针对遮挡情况下的3维人脸识别,成为极有意义的研究方向和研究难点。

Alyuz等人[6]提出了一种遮挡投影(masked projection)对人脸的子空间进行处理。文章先进行鼻子区域检测,再利用其他模块和鼻子区域的偏移向量定位出24个对称模块。最后通过24个模块的排列组合得到40个不同的配准表。文献[7]提出遮挡的人脸在遮挡区域会出现明显的不同,基于这个理论,Alyuz等人计算输入人脸和平均人脸在不同区域的绝对差来检测人脸的遮挡区域。匹配时通过去除遮挡的部分,在配准表里选择合适的子空间并提取相应的子空间特征进行人脸匹配。Drira等人[8]提出,分析和比较从鼻尖点出发的人脸径向线的形状,对每条径向线使用递归ICP(iterative closest point)算法检测和移除遮挡部分。通过测试集曲线可见部分和训练得到的曲线信息构建稀疏模型,在合适的向量空间使用PCA(principal component analysis)得到正交基来表示训练集中的人脸形状。然后通过这组基得到测试集曲线可视部分的相应参数,从而用相应的参数估计出曲线的完整形状。在匹配的阶段,提出将曲线的最优匹配转化为最优化参数的问题。最后在黎曼空间中构建目标函数,用最近邻分类器完成识别实验。Yu等人[9]提出用Douglas-Peucker算法[10]将以鼻尖点为中心的径向线折线化,将3维的曲线转化到2维平面上来求解。对于特征点的增加、缺失或偏移,文献[9]基于文献[11],对于拐点的定位大于一定的范围时提出了一种合并的策略。通过计算折线中各个子线段和合并之后的线段的代价函数,用动态规划的算法生成相应径向线的相似矩阵。该方法虽然对表情变化和局部遮挡有一定的鲁棒,但是由于用Douglas-Peucker算法在每条径向线上定出拐点的数目不同,因此需要构造出相应径向线间的2维相似矩阵来进行匹配。

受文献[9]启发,选择从鼻尖点出发的径向线来表示人脸。针对径向线的特点,对径向线进行截取和采样。同时,受到3维人脸识别中基于局部特征方法[12-13]的启发,提取采样点之间的局部区域,并在局部区域内提取局部特征,用径向线周围的局部信息来代替线段信息,以此增大径向线的有效信息。对于点云局部遮挡情况下的径向线匹配,通过均匀采样将文献[9]中的2维相似矩阵转化为具有局部匹配特性的1维相似向量,从而降低时间复杂度。在文献[9]中,针对Douglas-Peucker算法定出的拐点位置偏移较大的情况采取了合并相邻线段的思想,借鉴这个思想,本文对于点云稀疏的3维人脸点云采样不均匀的问题,也采用合并相邻局部区域的思想。具体介绍如下文所示。

1 基于径向线的局部特征提取

首先提取3维人脸的径向线,同时对径向线进行截取和采样。提取相邻采样点之间的局部区域,最后在局部区域内提取3个局部特征构成局部特征描述子,这3个局部特征分别为局部区域的中心坐标,局部区域面积以及倾斜角直方图。

1.1 提取径向线

径向线指的是人脸对称面及其旋转平面和人脸曲面的交线。本文采用中心区域人脸镜像匹配法[14]来确定人脸对称面,中心区域是指以鼻尖点[15]为球心,以45 mm为半径的区域,如图 1(a)所示。设原始的中心区域为$E$,初始对称面选为$YOZ$平面,径向线的提取步骤为:

图 1 径向线的提取
Fig. 1 Extraction of radialstrings((a) central region; (b) mirror symmetric surface; (c) radial strings)

1) 对输入的人脸,计算其中心区域$E$和该区域关于对称面的镜像区域$E′$

2) 对原始区域$E$和其镜像区域$E′$使用ICP算法,得到旋转矩阵和平移矩阵,将旋转矩阵和平移矩阵应用于镜像区域$E′$,得到对齐后的镜像区域$E′′$

3) 根据原始的区域$E$和对齐后的镜像区域$E′′$,得到中心区域对称面,将该对称面扩展到整张人脸曲面就得到镜像对称面$P$,如图 1(b)所示。

4) 在规范化的人脸点云中,将镜像对称面$P$绕着鼻尖点旋转角度$\alpha$得到平面$P′$,旋转后的平面$P′$和原始人脸曲面相交得到人脸的径向线,如图 1(c)所示。

1.2 提取局部特征

以经过鼻尖点的水平线为界,将人脸曲面分为上下两个部分。其中,下半部分包含嘴部区域,受表情影响较大[16],相对地,上半部分对表情有较强的鲁棒性。因此选择上半部分人脸区域内的径向线作为有效部分。然后在每一条径向线的有效部分内截取和采样。实验中以6.5 mm为间隔均匀采样。实验结果表明,包括鼻尖点在内,每条径向线采样11个点,可以很好地表示出径向线的有效部分,如图 2所示。

图 2 径向线的均匀采样
Fig. 2 Uniform sample for radial strings

定义局部点云区域为:以相邻两个采样点之间的欧氏距离为直径,以两点的中心为球心画球,将其命名为采样球(sample ball),落在采样球内的人脸区域形成局部点云区域。由于每条径向线采样11个点,因此每条径向线上有10个局部点云区域。图 3(a) (b)分别表示没有遮挡和存在局部遮挡时的采样球,图中只展示了部分径向线。

图 3 采样球
Fig. 3 Sample ball((a) sample ball with intact 3D face; (b) sample ball with partial occlusions 3D face)

在每个局部点云中,选取球体的球心坐标作为第1个局部特征。将点云网格化,选取局部区域中的点组成的所有三角面片面积和作为该区域的面积,以此作为第2个局部特征。除此之外,第3个局部特征选择较为复杂的倾斜角直方图$h$,长度为7。其中倾斜角$\alpha$定义为

$ \alpha ({\boldsymbol{n}_i}, {\boldsymbol{l}_q}) = {\rm{arccos}}\frac{{{\boldsymbol{l}_q} \cdot {\boldsymbol{n}_i}}}{{\left| {{\boldsymbol{l}_q}} \right|}} $ (1)

式中,向量${\boldsymbol{l}_q}$表示将第$q$个采样点和第 $q+1$个采样点相连的直线的方向向量,向量${\boldsymbol{n}_i}$表示局部区域中第$i$个点的单位法向量。

提取出来的3个局部特征表示为:球心坐标$(x,y,z)$,局部面积$s$,倾斜角直方图$h$,每个局部点云区域的特征描述子表示为$P(x,y,z,s,h)$。通过采样球提取径向线上相邻采样点间的3个局部特征构成局部特征描述子,该方法保持径向线连续性的同时充分利用了其局部信息,从而提高了识别率。

2 局部遮挡下的3维人脸识别

利用第1节提取的3个局部特征,构造出对应径向线间对应局部区域的代价函数,再利用局部区域代价函数的计算结果生成对应径向线的相似向量,最后利用相似向量完成径向线匹配,从而完成3维人脸识别。

2.1 代价函数

${P_A}$${P_B}$分别表示两条径向线,定义${P_A}\left\langle i \right\rangle $为径向线${P_A}$上的第$i$个局部区域的特征描述子,相应的表达式为$({x_A}\left\langle i \right\rangle, {y_A}\left\langle i \right\rangle, {z_A}\left\langle i \right\rangle, {s_A}\left\langle i \right\rangle, {h_A}\left\langle i \right\rangle)$。定义${P_A}\left\langle {i:j} \right\rangle $为径向线${P_A}$中从第$i$个局部区域到第$j$个局部区域合并后的特征描述子。

根据第1部分提取的局部特征,径向线${P_A}$和径向线${P_B}$对应的第$i$个局部区域的相似代价函数为

$ \begin{array}{*{20}{l}} {Cost({P_A}\left\langle i \right\rangle ),{P_B}\left\langle i \right\rangle ) = \left| {{s_A}\left\langle i \right\rangle - {s_B}\left\langle i \right\rangle } \right| + }\\ {\;\;\;\;\;\;\;\;\;f({h_A}\left\langle i \right\rangle ,{h_B}\left\langle i \right\rangle ) + }\\ {\sqrt {\begin{array}{*{20}{l}} {{{({x_A}\left\langle i \right\rangle - {x_B}\left\langle i \right\rangle )}^2} + {{({y_A}\left\langle i \right\rangle - {y_B}\left\langle i \right\rangle )}^2} + }\\ {\;\;\;\;\;\;\;\;\;\;\;\;\;\;{{({z_A}\left\langle i \right\rangle - {z_B}\left\langle i \right\rangle )}^2}} \end{array}} } \end{array} $ (2)

$ \begin{array}{l} f({h_A}\left\langle i \right\rangle, {h_B}\left\langle i \right\rangle ) = \\ \arccos\frac{{{h_A}\left\langle i \right\rangle \cdot {h_B}\left\langle i \right\rangle }}{{\left| {{h_A}\left\langle i \right\rangle } \right| \times \left| {{h_B}\left\langle i \right\rangle } \right|}} \end{array} $ (3)

为对应的倾斜角直方图的夹角。

式(2)中的代价函数由3个部分构成,其中每一部分都是经过最大—最小原则归一化后得到的结果。

对于实际情况中可能存在点云稀疏造成的采样点偏移的现象,采用了一种合并算法[11]。原始的$K$个局部区域合并为一个整体的局部区域集$P_A^k\left\langle i \right\rangle $

$ \begin{array}{l} P_A^k\left\langle i \right\rangle = P\left\langle {(i-k + 1):i} \right\rangle = \\ \;\;\;\;P(i-k + 1) \cdots {P_A}\left\langle i \right\rangle \end{array} $ (4)

该合并算法对应的合并代价函数为

$ \begin{array}{l} \;\;\;\;\;\;\;Cost(P_A^k\left\langle i \right\rangle ) = \\ g\left( {\frac{{k-1}}{{{l^k}}}\sum\limits_{q = i-k + 1}^i {\Delta ({d^k}, {d_q}) \times {l_q}} } \right) \end{array} $ (5)

式中,${{d^k}}$${{l^k}}$分别为合并后区域首尾采样点的方向向量和首尾采样点间的欧氏距离,${d_q}$${l_q}$分别为单一区域${P_A}\left\langle q \right\rangle $两端采样点的方向向量和和两端采样点的欧氏距离。$\Delta ({d^k}, {d^q}) \in [0, {90^ \circ }]$为两个方向向量的角度差,$g(x) = {x^2}/w$是一个非线性函数,$w=100$为训练得出的参数。

采取同时合并库集和测试集的合并策略,也就是库集和测试集合并区域的数目相同。因此对于合并后的区域集,其相似代价函数为

$ \begin{array}{*{20}{l}} {Cost(P_A^k\left\langle i \right\rangle ,P_B^k\left\langle i \right\rangle ) = \left| {s_A^k\left\langle i \right\rangle - s_B^k\left\langle i \right\rangle } \right| + }\\ {\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;f(h_A^k\left\langle i \right\rangle ,(h_B^k\left\langle i \right\rangle ) + }\\ {\sqrt {\begin{array}{*{20}{l}} {{{(x_A^k\left\langle i \right\rangle - x_B^k\left\langle i \right\rangle )}^2} + {{(y_A^k\left\langle i \right\rangle - y_B^k\left\langle i \right\rangle )}^2} + }\\ {\;\;\;\;\;\;\;\;\;\;\;\;\;\;{{(z_A^k\left\langle i \right\rangle - z_B^k\left\langle i \right\rangle )}^2}} \end{array}} } \end{array} $ (6)

式中,${s_A^k\left\langle i \right\rangle }$为区域合并后的总面积,$h_A^k\left\langle i \right\rangle $为区域合并后的倾斜角直方图,$(x_A^k\left\langle i \right\rangle, y_A^k\left\langle i \right\rangle, z_A^k\left\langle i \right\rangle)$为区域合并后首尾两端点的中点坐标。在式(6)中,当$k=1$,即区域没有合并时,式(6)就简化成了式(2)。

2.2 径向线匹配

${P_A} = {P_A}\left\langle 1 \right\rangle {P_A}\left\langle 2 \right\rangle \cdots {P_A}\left\langle {10} \right\rangle $${P_B} = {P_B}\left\langle 1 \right\rangle {P_B}\left\langle 2 \right\rangle \cdots {P_B}\left\langle {10} \right\rangle $分别表示库集和测试集中对应的径向线,对应的径向线是指镜像对称面偏转的角度相同时得到的径向线。

定义一个11×1的相似向量

$ \boldsymbol{P} = {[P(0), P(1), \cdots, P(10)]^{\rm{T}}} $ (7)

式中,$P(i)$为库集径向线和测试集径向线的第$i$个区域或者第$i$个区域及其之前区域合并后的最大相似值,即

$ P(i) = \mathop {\max }\limits_k (T(k)) $ (8)

$ T(k) = \left\{ \begin{array}{l} P(i-k) + \Delta P\;\;\Delta P \ge 0\\ 0\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\Delta P < 0 \end{array} \right. $ (9)

式中,$\Delta P$为相似参数,用来比较阈值和总代价函数。$k$为循环变量,表示从1到合并上限的循环。通过合并前后对应$T(k)$的大小来决定是否将此区域和其前面的相邻区域进行合并。

总代价函数即为相似代价函数和合并代价函数之和,则相似参数$\Delta P$的计算公式为

$ \Delta P = \gamma- \left[\begin{array}{l} Cost(P_A^k\left\langle i \right\rangle, P_B^k\left\langle i \right\rangle ) + \\ Cost(P_A^k\left\langle i \right\rangle ) + \\ Cost(P_B^k\left\langle i \right\rangle ) \end{array} \right] $ (10)

式中,$\gamma$为决定$P_A^k\left\langle i \right\rangle $$P_B^k\left\langle i \right\rangle $是否相似匹配的阈值。

$limit$为区域合并的上界。为了平衡识别率和计算代价,经过反复实验比较,取$limit=3$,相似向量算法实现的具体流程如下:

输入:${P_A} = {P_A}\left\langle 1 \right\rangle \cdots {P_A}\left\langle {10} \right\rangle, {P_B} = {P_B}\left\langle 1 \right\rangle \cdots {P_B}\left\langle {10} \right\rangle $

输出:$P({P_A}, {P_B})$

初始化:$P(0)=0$

for   $i=1:10$

for   $k = 1:\min (limit, i)$

$ \begin{array}{l} \Delta P = \gamma- \left[\begin{array}{l} Cost(P_A^k\left\langle i \right\rangle, P_B^k\left\langle i \right\rangle ) + \\ Cost(P_A^k\left\langle i \right\rangle ) + \\ Cost(P_B^k\left\langle i \right\rangle ) \end{array} \right]\\ T(k) = \left\{ \begin{array}{l} P(i -k) + \Delta P\;\;\Delta P \ge 0\\ 0\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\Delta P < 0 \end{array} \right. \end{array} $

计算相似向量中两条径向线的相似程度时,需先找出相似向量中的最大数,再确定与该数相关的数,将其置零。接着找到次大数,再将和次大数相关的数置零,依次类推。则两条径向线的相似值可以表示为

$ s({P_A}, {P_B}) = \sum\limits_{i = 1}^f {{p_i}} $ (11)

式中,${{p_i}}$为相似向量中第$i$大的数,$f$为相似子区域的数目。

2.3 3维人脸识别

库集人脸和测试集人脸的相似值为提取出来的19条径向线的相似值之和。定义为

$ S = \sum\limits_{i =-9}^9 {s(P_A^\alpha, P_B^\alpha )} $ (12)

式中,$\alpha = i \times {10^ \circ }$为径向线和中心侧面轮廓线的顺时针偏转夹角, ${P_A^\alpha, P_B^\alpha }$表示偏转角度为$\alpha $对应的径向线。然后根据测试集人脸和库集人脸的相似值完成最终的人脸识别。

3 实验

为了测试局部特征的有效性和本文方法对局部遮挡人脸的鲁棒性,分别在FRGC v2.0数据库[17]和Bosphorus数据库[18]上进行实验。FRGC v2.0收集了466个对象的4 007张点云模型。因为FRGC v2.0库的点云完整且密度大,所以选择在该库中进行局部特征测试实验;Bosphorus数据库包含105个对象(60个男人,45个女人)的4 666张人脸点云,该库包含不同部位的遮挡,如图 4所示,其中图 5(a)为头发引起的额头部分被遮挡,图 5(b)为手引起的眼睛部分被遮挡,图 5(c)为眼镜引起的遮挡。在该库中进行针对局部遮挡的3维人脸识别实验。

图 4 局部遮挡的3维人脸
Fig. 4 3D faces with partial occlusion
图 5 FRGC v2.0库的CMC曲线
Fig. 5 CMC curves on FRGC v2.0 database

3.1 局部特征测试实验

本小节在FRGC v2.0库上进行实验,该库包含中性和带表情的3维人脸模型,实验的目的是测试不同的局部特征的识别率。因为FRGC v2.0是大型的公共人脸库,点云质量高,因此选择在该库中进行局部特征识别率的测试实验。在该库中选取600个人脸作为训练集进行训练,得到的相似匹配阈值$\gamma =50$。在FRGC v2.0数据库中任意选择300个对象,选取每个对象的1张中性表情作为库集,另选3张人脸作为测试集。同时采用R1RR(Rank-1 recognition rate)作为识别性能指标。R1RR表示Rank等于1时的识别率,Rank为系统返回最相似点云的个数,该识别率能够很好地反映系统的识别性能。本实验结果分别与文献[12]中的形状指数直方图(HOS)、倾斜角直方图(HOSA)以及方向角直方图(HODA),文献[13]中的mesh-LBP(local binary pattern on the mesh)描述符进行比较,实验结果如表 1所示。

表 1 不同局部特征的R1RR
Table 1 Rank-1 recognition rate for different local feature

下载CSV
局部特征 R1RR / %
文献[12] 94.3
文献[13] 92.8
本文局部描述子 95.2

表 1可以看出,本文选取的局部特征具有较高的识别率。为了更充分地说明这些局部特征的有效性,使用CMC(cumulative match curve)曲线作为识别性能的指标,得到各算法的CMC曲线如图 5所示。该曲线主要反映最相似模型数目和识别率之间的关系。从图 5中的曲线可以看出,虽然随着最相似模型数目的增多,不同的局部特征在人脸识别率上的差距在减小,但是整体而言还是本文提出的局部特征有更好的人脸识别率。因此本文提出的局部特征能够获得更好的识别效果。

3.2 局部遮挡下的3维人脸识别实验

在Bosphorus库中存在不同部位被遮挡的点云,因此选择在该库中测试本文提出的方法对局部遮挡的鲁棒性。因为库中存在不同程度的遮挡,所以相似匹配阈值也相应的较大。在该人脸库中选择105个对象的1张没有遮挡的点云和3张带有遮挡的点云进行训练,得到的相似阈值$\gamma =60$。在Bosphorus库的105个对象中选择1张没有遮挡的中性人脸作为库集,任意选择300个包含不同遮挡的点云作为测试集。在相同的库集和测试集中,将本文算法和其他算法进行对比实验,比较结果如表 2所示。其中,文献[20]通过对输入人脸和特征脸的比较分析来检测遮挡部分,通过GPCA(Gappy PCA)来移除和储存遮挡部分,最后用Fisherface算法来进行识别;文献[8]用从鼻尖点出发的径向线来表征人脸,用弹性黎曼结构分析径向线并检测脸部的变形,从而处理表情变化和局部遮挡,这种表示法和弹性黎曼结构对表情、姿态变化以及局部遮挡有一定的鲁棒性;文献[9]用Douglas-Peucker算法[10]在径向线上定点形成折线,用折线表示径向线。再通过一系列代价函数和动态规划来分析折线并进行相应的折线合并,从而生成相似矩阵来进行径向线相似识别, 但是文献[9]中用Douglas-Peucker算法在每条径向线上定出的拐点数目不同,因此必须构造2维的相似矩阵使得合并的代价较大。而本文方法利用均匀采样使每条径向线上的采样点数目一致。另外,考虑了径向线周围的局部信息,因此对识别率有一定的提升。

表 2 不同方法的R1RR
Table 2 Rank-1 recognition rate for different methods

下载CSV
方法 R1RR / %
文献[20] 89.3
文献[8] 89.0
文献[9] 91.6
本文 92.0

表 2展示了不同方法的Rank-1识别率,在相同的人脸库上,本文方法具有最高的识别率,但和文献[9]相比仅仅提高了0.4%。由于和文献[9]使用Douglas-Peucker算法在每条径向线上定出的拐点数目不同,因此需要构造2维相似矩阵,使得时间复杂度较大,因此进一步将本文方法和其他方法的时间复杂度进行比较,实验结果如表 3所示。

表 3 不同方法的耗时
Table 3 Time for different methods

下载CSV
方法 耗时/s
文献[20] 10.22
文献[8] 8.35
文献[9] 42.60
本文 8.17

表 3展示了不同算法的耗时情况,在相同的人脸库上,本文算法的耗时远短于文献[9]。结合表 2表 3的实验结果可以看出,本文具有最高的识别率,同时算法耗费的时间也是最短的,充分证明本文提出的算法是解决局部遮挡的有效算法。

4 结论

提出了一种基于径向线和局部特征的3维人脸识别算法,有效地处理了局部遮挡下的3维人脸识别问题。该方法利用镜像对称面绕鼻尖旋转得到径向线,选择径向线上半部分作为有效部分,然后在每1条径向线的有效部分内截取和采样。并以两个相邻采样点的欧氏距离为直径,以两个相邻采样点的中点为球心做球,切割点云得到局部区域。在局部区域内提取3个局部特征构成局部特征描述子。选择局部区域的中点坐标,局部区域面积以及倾斜角直方图作为3个局部特征。最后通过3个局部特征构造相关代价函数,利用代价函数的计算结果生成对应径向线间的相似向量完成径向线匹配,从而实现3维人脸识别。在基于FRGC v2.0数据库的实验中,本文算法得到95.2%的R1RR, 在Bosphorus数据库的试验中,本文算法得到92.0%的R1RR, 充分证明本文算法稳定且具有较高的识别率,并对局部遮挡具有良好的鲁棒性。

本文算法需要首先定位出鼻尖点,因此对于鼻尖被遮挡的点云无法进行识别,这个问题在后续的工作中将会进一步考虑。

参考文献

  • [1] Yuan H, Wang Z H, Jiang W T. Face recognition method based on frequency cluster[J]. Journal of Image and Graphics, 2016, 21(9): 1166–1177. [袁姮, 王志宏, 姜文涛. 基于频率簇模型的人脸识别[J]. 中国图象图形学报, 2016, 21(9): 1166–1177. ] [DOI:10.11834/jig.20160906]
  • [2] Zhu L, Zhu S A. Face recognition based on two-dimensional image principal component analysis[J]. Journal of Zhejiang University:Engineering Science, 2007, 41(2): 264–267. [祝磊, 朱善安. 基于2维广义主成分分析的人脸识别[J]. 浙江大学学报:工学版, 2007, 41(2): 264–267. ] [DOI:10.3785/j.issn.1008-973X.2007.02.016]
  • [3] Chang P P, Da F P, Mei J. Expression-robustness 3D face recognition based on facial profiles[J]. Journal of Image and Graphics, 2015, 20(3): 332–339. [常朋朋, 达飞鹏, 梅俊. 对表情鲁棒的面部轮廓线3维人脸识别[J]. 中国图象图形学报, 2015, 20(3): 332–339. ] [DOI:10.11834/jig.20150304]
  • [4] Wang Y M, Pan G, Wu Z H. A survey of 3D face recognition[J]. Journal of Computer-Aided Design and Computer Graphics, 2008, 20(7): 819–829. [王跃明, 潘纲, 吴朝晖. 3维人脸识别研究综述[J]. 计算机辅助设计与图形学学报, 2008, 20(7): 819–829. ]
  • [5] Berretti S, Werghi N, Del Bimbo A, et al. Matching 3D face scans using interest points and local histogram descriptors[J]. Computers & Graphics, 2013, 37(5): 509–525. [DOI:10.1016/j.cag.2013.04.001]
  • [6] Alyuz N, Gokberk B, Akarun L. 3-D face recognition under occlusion using masked projection[J]. IEEE Transactions on Information Forensics and Security, 2013, 8(5): 789–802. [DOI:10.1109/TIFS.2013.2256130]
  • [7] Colombo A, Cusano C, Schettini R. Gappy PCA classification for occlusion tolerant 3D face detection[J]. Journal of Mathematical Imaging and Vision, 2009, 35(3): 193–207. [DOI:10.1007/s10851-009-0165-y]
  • [8] Drira H, Ben Amor B, Srivastava A, et al. 3D face recognition under expressions, occlusions, and pose variations[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35(9): 2270–2283. [DOI:10.1109/TPAMI.2013.48]
  • [9] Yu X, Gao Y S, Zhou J. 3D face recognition under partial occlusions using radial strings[C]//Proceedings of 2016 IEEE International Conference on Image Processing. Phoenix, Arizona, USA: IEEE, 2016: 3016-3020. [DOI: 10.1109/ICIP.2016.7532913]
  • [10] Visvalingam M, Whyatt J D. The Douglas-Peucker algorithm for line simplification: re-evaluation through visualization[C]//Computer Graphics Forum. Blackwell Publishing Ltd. 1990, 9(3): 213-228.
  • [11] Tsai W H, Yu S S. Attributed string matching with merging for shape recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1985, PAMI-7(4): 453–462. [DOI:10.1109/TPAMI.1985.4767684]
  • [12] Guo M L, Da F P, Deng X, et al. 3D face recognition based on keypoints and local feature[J]. Journal of Zhejiang University:Engineering Science, 2017, 51(3): 584–589. [郭梦丽, 达飞鹏, 邓星, 等. 基于关键点和局部特征的3维人脸识别[J]. 浙江大学学报:工学版, 2017, 51(3): 584–589. ] [DOI:10.3785/j.issn.1008-973X.2017.03.021]
  • [13] Tang L L, Gai S Y, Da F P, et al. 3D Face recognition method based on the local binary pattern from vertical and horizontal on the mesh[J]. Chinese Journal of Scientific Instrument, 2016, 37(6): 1413–1420. [汤兰兰, 盖绍彦, 达飞鹏, 等. 基于网格纵横局部二值模式的3维人脸识别[J]. 仪器仪表学报, 2016, 37(6): 1413–1420. ] [DOI:10.3969/j.issn.0254-3087.2016.06.027]
  • [14] Pan G, Wang Y M, Qi Y P, et al. Finding symmetry plane of 3D face shape[C]//Proceedings of the 18th International Conference on Pattern Recognition. Hong Kong, China: IEEE, 2006: 1143-1146. [DOI: 10.1109/ICPR.2006.565]
  • [15] Li X L, Da F P. Efficient 3D face recognition handling facial expression and hair occlusion[J]. Image and Vision Computing, 2012, 30(9): 668–679. [DOI:10.1016/j.imavis.2012.07.011]
  • [16] Faltemier T C, Bowyer K W, Flynn P J. A region ensemble for 3-D face recognition[J]. IEEE Transactions on Information Forensics and Security, 2008, 3(1): 62–73. [DOI:10.1109/TIFS.2007.916287]
  • [17] Phillips P J, Flynn P J, Scruggs T, et al. Overview of the face recognition grand challenge[C]//Proceedings of 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. San Diego, CA, USA: IEEE, 2005: 947-954. [DOI: 10.1109/CVPR.2005.268]
  • [18] Savran A, Alyüz N, Dibeklioǧlu K, et al. Bosphorus database for 3D face analysis[C]//Proceedings of the 1st European Workshop on Biometrics and Identity Management. Roskilde, Denmark: Springer, 2008: 47-56.
  • [19] Colombo A, Cusano C, Schettini R. Detection and restoration of occlusions for 3D face recognition[C]//Proceedings of 2006 IEEE International Conference on Multimedia and Expo. Toronto, Ont., Canada: IEEE, 2006: 1541-1544. [DOI: 10.1109/ICME.2006.262837]