Print

发布时间: 2018-09-16
摘要点击次数:
全文下载次数:
DOI: 10.11834/jig.170671
2018 | Volume 23 | Number 9




    图像分析和识别    




  <<上一篇 




  下一篇>> 





广义并行2维复判别分析的人脸识别
expand article info 刘万军1, 邴晓环2, 姜文涛1, 张晟翀3
1. 辽宁工程技术大学软件学院, 葫芦岛 125105;
2. 辽宁工程技术大学研究生院, 葫芦岛 125105;
3. 光电信息控制和安全技术重点实验室, 天津 300308

摘要

目的 针对2维线性鉴别分析提取人脸特征向量稳定性较差、仅对行或列方向提取特征时容易丢失不同行或列间有助于鉴别分析的协方差信息、同时存在特征维数较高的问题,提出一种广义并行2维复判别分析的人脸识别方法。方法 首先对人脸图像进行广义并行2维线性判别分析处理,根据特征值贡献率动态选取特征向量组成正交投影矩阵,完成水平和垂直方向上的投影;其次将处理后得到的两类特征矩阵以复数的实部和虚部形式相加,对融合后的特征矩阵进行广义2维复判别分析处理得到复特征矩阵;然后以复特征矩阵的特征值大小来衡量特征矩阵分量的识别性能,对特征矩阵分量进行重新排序,选取最具鉴别力的分量形成最终表征人脸的特征;最后采用最大相似度分类器比较测试样本与训练样本特征的相似度,进行人脸图像特征的分类识别。结果 在Yale、ORL、FERET、CMU-PIE及LFW人脸数据库上进行实验测试,该方法的最优识别率分别为100%、100%、98.98%、99.76%及98.67%,特征维数在85~90之间,表明该方法对复杂条件下的人脸识别有较高的准确率和较低的空间占有率。结论 该方法能够有效克服2维线性鉴别分析提取特征稳定性差、特征空间中特征重叠、存储系数多、特征维数高的缺点,表现出较高鲁棒性和准确率及较低空间复杂度的特性。

关键词

人脸识别; 广义并行2维复判别分析; 复特征矩阵; 最大相似度分类

Face recognition of generalized parallel two-dimensional complex discriminant analysis
expand article info Liu Wanjun1, Bing Xiaohuan2, Jiang Wentao1, Zhang Shengchong3
1. College of Software, Liaoning Technical University, Huludao 125105, China;
2. Graduate School, Liaoning Technical University, Huludao 125105, China;
3. Science and Technology on Electro-Optical Information Security Control Laboratory, Tianjin 300308, China
Supported by: National Natural Science Foundation of China (61172144)

Abstract

Objective A face recognition approach of generalized parallel two-dimensional (2D) complex discriminant analysis was proposed to tackle such problems that 2D linear discriminant analysis demonstrated poor stability when extracting facial feature vectors, the covariance information of different rows or columns which was conducive to discriminant analysis was very likely to get lost when only features in rows or columns were being extracted, and the dimensions where features existed were relatively high. Method Firstly, generalized parallel 2D linear discriminant analysis was conducted on facial images, and the feature vectors are selected according to the feature value contribution rate to form the orthogonal projection matrix, then the projection of horizontal and vertical direction is completed; secondly, the two types of feature matrices obtained after processing were added together in forms of real part and imaginary part of complex numbers, and the complex feature matrices were obtained by conducting generalized 2D complex discriminant analysis on feature matrices having been fused; then, the recognition performance of feature matrix components was measured based on feature values of complex feature matrices, the feature matrix components were re-ranked, and the most discriminative components were selected to form the final features characterizing human faces; and at last, maximum similarity classifier was used to classify and recognize features of human face images by comparing the similarity between the test samples and the training sample features. Result Yale, ORL, FERET, CMU-PIE and LFW face databases were experimented, from which the optimal recognition rates obtained by using this method were respectively 100%, 100%, 98.98%, 99.76%, and 98.67%, with the feature dimensions ranging from 85 to 90, which indicated that this method delivered relatively high face recognition precision and low space occupancy in complex conditions. Conclusion This method could effectively overcome drawbacks such as poor feature extraction stability of 2D linear discriminant analysis, overlap of features in feature space, excessive storage coefficients, and high dimension of features, manifesting high robustness, great precision, and low space complexity.

Key words

face recognition; generalized parallel two-dimensional complex discriminant analysis; complex feature matrices; maximum similarity classification

0 引言

人脸识别具有无需接触、操作简便、特征较稳定、识别效果直观等优点,成为一种较为成熟的生物特征鉴别技术。人脸图像的采集条件易受光照强度、表情变化、遮挡面积、尺度缩放、视角转变等情况的影响,导致特征提取难度提高。此外,人脸图像本身维数高,提取特征后参与识别分类的特征维数仍较高,增加了识别过程的计算量。因此,如何高效提取有较强鉴别力的稳定特征来表征人脸图像尤为重要。

国内外学者针对人脸识别的不同应用设计了许多有效算法[1-4]。在针对图像降维和特征提取方面,子空间技术有很好的表现。孔锐等人[5]设计了一种能有效适应不同光照变化条件的人脸识别方法,采用改进的LDA(linear discriminant analysis)算法进行特征提取,该算法对光照强度变化较大的人脸图像识别更具优势。甘俊英等人[6]设计了核零空间线性鉴别分析方法,降维效果因核函数的引入有所提升。傅俊鹏等人[7]提出L_(2, 1)范数正则化的广义核判别分析人脸识别方法,增加L_(2, 1)范数惩罚项,将子空间学习与特征选取并行化来提升识别效果。阮越等人[8]提出一种量子PCA(principal component analysis)分析方法,降低特征空间维数同时增强人脸识别性能。Muqeet等人[9]设计了基于LDA广义半波多项式小波滤波器组的算法,使用广义半频多项式因子结合LDA算法组成小波滤波器组,提升人脸识别效果。Juneja K [10]提出噪声鲁棒性VDD(vector-directional-distance)组合PCA-LDA模型的人脸识别算法,将VDD即向量—方向和方向—距离滤波器与PCA-LDA组合,提高人脸识别对噪声的鲁棒性。胡正平等人[11]提出多层次深度子空间网络融合特征提取模型,利用PCA或Fisher子空间作为卷积层,并加入池化层以降低特征维度。子空间技术中LDA算法是一种较为经典的1维特征提取方法,但此方法有一定局限性:1)易受小样本问题影响;2)LDA算法将图像按照行或列拉伸成1维向量,不仅增加空间和时间复杂度,同时破坏图片结构;3)LDA算法容易产生边缘化的问题。

为了克服上述1维线性鉴别分析方法的缺陷,Kong等人[12]提出了2DLDA算法,并提出了双边2DLDA提取行和列方向的特征。吴煌鹏等人[13]提出基于ULBP特征子空间的2DLDA人脸识别方法,将灰度空间投影到ULBP特征子空间,采用行2维线性鉴别分析进行特征提取,提升识别效果。殷俊等人[14]提出基于最近正交矩阵的2维鉴别投影人脸识别方法,能够有效解决光照干扰问题。Noushath[15]等人提出了(2D)2LDA,分别对行列进行特征提取以实现降维。

2DLDA算法可以有效处理图像维度高和小样本事件,但仅对水平方向进行特征提取,需要较多存储空间,在分类时也要消耗更多时间[16],且该算法的投影矩阵不都是标准的正交阵,导致提取的特征缺乏稳定性,可能造成投影后的特征产生重叠[17]。(2D)2LDA方法将图像进行行方向上投影后再进行列方向投影。经过第1次的投影,图像列结构发生改变,并不能提取到完整的列向信息。基于上文所述,本文在文献[16]和文献[17]的基础上提出一种广义并行2维复判别分析的人脸识别方法,利用广义并行2维线性判别分析对行和列并行提取特征,将两类特征矩阵有效融合,对融合后的复特征矩阵进行广义2维复特征提取,投影特征向量采用动态选取策略来有效提取特征和降维。

本文创新如下:

1) 有效改善了特征向量矩阵缺乏稳定性及特征空间特征重叠的问题;

2) 采用动态选择特征向量的策略,达到降维效果同时提升人脸识别准确率;

3) 提出广义并行2维复判别分析方法。

1 广义并行2维复判别分析方法

人脸图像采集时往往容易受到光强变化、尺度缩放、表情变换、遮挡面积等情况的影响,为特征提取增加一定难度。为改善图像在特征表示时维度较高且稳定性差的情况,提出一种广义并行2维复判别分析(GP2DCDA)的人脸识别方法,它是对2维线性判别分析算法的一种扩展,其本质都是针对图像矩阵进行操作,但前者无论在识别效果还是节省存储空间能力上都有所提升。GP2DCDA算法流程如图 1所示。

图 1 GP2DCDA算法流程
Fig. 1 Flow of GP2DLDA algorithm

1.1 广义2维线性判别分析

广义2维线性判别分析是对人脸图像进行水平方向上稳定的特征提取的方法。设训练图像样本集$\mathit{\boldsymbol{X}} = \{ {\mathit{\boldsymbol{X}}_{kj}}k = 1, \cdots, C; \; j = 1, \ldots, {N_j}\} $,其中${\mathit{\boldsymbol{X}}_{kj}}$表示第$k$类第$j$幅大小为$m$×$n$的样本图像,第$k$类包含${N_j}$个样本,训练样本总容量为$N$,类别数为$C$。样本的类内散布矩阵${\mathit{\boldsymbol{S}}_{\rm{w}}}$和类间散布矩阵${\mathit{\boldsymbol{S}}_{\rm{b}}}$

$ {\mathit{\boldsymbol{S}}_{\rm{w}}} = \sum\limits_{k = 1}^C {{p_k}} \sum\limits_{j = 1}^{{N_j}} {{{\left( {{\mathit{\boldsymbol{X}}_{kj}} - {\mathit{\boldsymbol{\mu }}_k}} \right)}^{\rm{T}}}\left( {{\mathit{\boldsymbol{X}}_{kj}} - {\mathit{\boldsymbol{\mu }}_k}} \right)} $ (1)

$ {\mathit{\boldsymbol{S}}_{\rm{b}}} = \sum\limits_{k = 1}^C {{p_k}{{\left( {{\mathit{\boldsymbol{\mu }}_k} - \mathit{\boldsymbol{\mu }}} \right)}^{\rm{T}}}\left( {{\mathit{\boldsymbol{\mu }}_k} - \mathit{\boldsymbol{\mu }}} \right)} $ (2)

式中,${p_k}$代表样本图像隶属于第$k$类的概率,$\mathit{\boldsymbol{\mu }}$代表总体样本均值矩阵,${\mathit{\boldsymbol{\mu }}_k}$表示第$k$类样本均值矩阵。投影矩阵$\mathit{\boldsymbol{W }}$的Fisher准则函数为

$ J\left( \mathit{\boldsymbol{W}} \right) = \frac{{{\mathit{\boldsymbol{W}}^{\rm{T}}}{\mathit{\boldsymbol{S}}_{\rm{b}}}\mathit{\boldsymbol{W}}}}{{{\mathit{\boldsymbol{W}}^{\rm{T}}}{\mathit{\boldsymbol{S}}_{\rm{w}}}\mathit{\boldsymbol{W}}}} $ (3)

最佳投影矩阵$\mathit{\boldsymbol{W }}$为最大化式(3)所得,等价于最大特征值对应的特征向量

$ {\mathit{\boldsymbol{S}}_{\rm{b}}}\mathit{\boldsymbol{W = }}\lambda {\mathit{\boldsymbol{S}}_{\rm{w}}}\mathit{\boldsymbol{W}} $ (4)

根据式(4)及${\mathit{\boldsymbol{S}}_{\rm{w}}}$矩阵满秩,可以得出

$ {\mathit{\boldsymbol{S}}_{\rm{w}}}^{ - 1}{\mathit{\boldsymbol{S}}_{\rm{b}}}\mathit{\boldsymbol{W = }}\lambda \mathit{\boldsymbol{W}} $ (5)

到此处为止即为2DLDA算法的基本算法流程。又因${\mathit{\boldsymbol{S}}_{\rm{w}}}$的每个元素均为正实数,即存在平方根${\mathit{\boldsymbol{S}}_{\rm{w}}}^{\frac{1}{2}}$满足

$ {\mathit{\boldsymbol{S}}_{\rm{w}}} = {\mathit{\boldsymbol{S}}_{\rm{w}}}^{\frac{1}{2}}{\mathit{\boldsymbol{S}}_{\rm{w}}}^{\frac{1}{2}} $ (6)

将式(6)带入到式(4)可得${\mathit{\boldsymbol{S}}_{\rm{b}}}\mathit{\boldsymbol{W}} = \lambda {\mathit{\boldsymbol{S}}_{\rm{w}}}^{\frac{1}{2}}{\mathit{\boldsymbol{S}}_{\rm{w}}}^{\frac{1}{2}}\mathit{\boldsymbol{W}}$,令$\mathit{\boldsymbol{V}} = {\mathit{\boldsymbol{S}}_{\rm{w}}}^{\frac{1}{2}}\mathit{\boldsymbol{W}}$得到最终特征方程

$ {\mathit{\boldsymbol{S}}_{\rm{w}}}^{ - \frac{1}{2}}{\mathit{\boldsymbol{S}}_{\rm{b}}}{\mathit{\boldsymbol{S}}_{\rm{w}}}^{ - \frac{1}{2}}\mathit{\boldsymbol{V}} = \lambda \mathit{\boldsymbol{V}} $ (7)

式中,${\mathit{\boldsymbol{S}}_{\rm{w}}}^{-\frac{1}{2}}{\mathit{\boldsymbol{S}}_{\rm{b}}}{\mathit{\boldsymbol{S}}_{\rm{w}}}^{-\frac{1}{2}}$为特征向量矩阵,$\mathit{\boldsymbol{W}}$$\mathit{\boldsymbol{V}}$均是特征值$\lambda $所对应的特征向量。

广义2维线性判别分析算法将投影向量组转化为互相正交的投影向量组,使其提取的特征更加稳定。

1.2 2维复判别分析

2维复判别分析方法充分获取人脸图像行列两个方向特征并有效融合,再进行进一步的特征提取,具体过程如下:

1) 采用行2DLDA算法处理图像得到水平方向特征矩阵集${\mathit{\boldsymbol{O}}_{kj}}$,采用扩展2DLDA算法处理图像得到垂直方向特征矩阵集${\mathit{\boldsymbol{T}}_{kj}}$

2) 把实数矩阵$\mathit{\boldsymbol{X}} \in {{\bf{R}}^{m \times n}}$的取值范围扩展到复数域,将两类特征矩阵$\mathit{\boldsymbol{O}}$$\mathit{\boldsymbol{T}}$以复数的实部和虚部的方式相结合${\mathit{\boldsymbol{E}}_{kj}} = {\mathit{\boldsymbol{O}}_{kj}}^{\rm{T}} + {\rm{i}}{\mathit{\boldsymbol{T}}_{kj}}$,其中i表示虚部,$\mathit{\boldsymbol{E}}$即训练样本集的融合特征。

3) 再次采用行2DLDA算法处理${\mathit{\boldsymbol{E}}_{kj}}$得到投影矩阵$\mathit{\boldsymbol{ \boldsymbol{\varDelta} }}$,它由前$r$个最大特征值所对应的特征向量所组成,可以表示为, $\mathit{\boldsymbol{ \boldsymbol{\varDelta} }}=[{\mathit{\boldsymbol{ \boldsymbol{\varDelta} }}_{\rm{1}}},{\mathit{\boldsymbol{ \boldsymbol{\varDelta} }}_{\rm{2}}},{\mathit{\boldsymbol{ \boldsymbol{\varDelta} }}_{\rm{3}}}, …,{\mathit{\boldsymbol{ \boldsymbol{\varDelta} }}_r}] $,特征提取可表示为$\mathit{\boldsymbol{D}}{\rm{ = }}\mathit{\boldsymbol{E}} \times \mathit{\boldsymbol{ \boldsymbol{\varDelta} }}$$\mathit{\boldsymbol{D}}$即图像最终的复特征矩阵。

4) 将矩阵分量按照其鉴别能力重新排列,选出主要的特征分量组成最终的复特征。

2维复判别分析人脸识别算法将行和列两个方向提取到的特征进行互不干扰的融合,对融合后的特征矩阵再次提取特征达到了很好的降维效果。

1.3 GP2DCDA算法

广义2维线性判别分析[17]算法是将投影矩阵化为正交形式,使得投影后的特征更加稳定,减少了特征空间中特征重叠的现象。但求解特征向量$\mathit{\boldsymbol{V}}$的精度不高,从而影响识别效果。同时,算法忽视了纵向特征提取的重要性。而2维复判别分析[16]算法充分利用了行列两个方向的信息进行特征提取并对特征进行有效融合,达到了很好的降维和识别效果。但该算法对训练样本容量有一定的依赖,提取的特征缺乏稳定性。

结合广义2维线性判别分析算法和2维复判别分析算法的优点,提出广义并行2维复判别分析方法并应用于人脸识别,即改进广义2维线性判别分析算法中特征向量$\mathit{\boldsymbol{V}}$的求解方式,并将其与2维复判别分析方法相结合,同时采用动态特征选取策略选择最具鉴别力的稳定特征参与分类识别。

根据式(5)可求得投影向量组$\mathit{\boldsymbol{W}}$,再由$\mathit{\boldsymbol{V}} = {\mathit{\boldsymbol{S}}_{\rm{w}}}^{\frac{1}{2}}\mathit{\boldsymbol{W}}$,即可求出标准正交投影矩阵,则人脸图像向投影矩阵$\mathit{\boldsymbol{V}}$投影后,可以得到水平方向最主要的信息。

将样本的类内和类间散布矩阵改为

$ {\mathit{\boldsymbol{G}}_{\rm{w}}} = \sum\limits_{k = 1}^C {{p_k}} \sum\limits_{j = 1}^{{N_j}} {\left( {{\mathit{\boldsymbol{X}}_{kj}} - {\mathit{\boldsymbol{\mu }}_k}} \right){{\left( {{\mathit{\boldsymbol{X}}_{kj}} - {\mathit{\boldsymbol{\mu }}_k}} \right)}^{\rm{T}}}} $ (8)

$ {\mathit{\boldsymbol{G}}_{\rm{b}}} = \sum\limits_{k = 1}^C {{p_k}\left( {{\mathit{\boldsymbol{\mu }}_k} - \mathit{\boldsymbol{\mu }}} \right){{\left( {{\mathit{\boldsymbol{\mu }}_k} - \mathit{\boldsymbol{\mu }}} \right)}^{\rm{T}}}} $ (9)

相应的Fisher准则函数为

$ J\left( \mathit{\boldsymbol{U}} \right) = \frac{{{\mathit{\boldsymbol{U}}^{\rm{T}}}{\mathit{\boldsymbol{G}}_{\rm{b}}}\mathit{\boldsymbol{U}}}}{{{\mathit{\boldsymbol{U}}^{\rm{T}}}{\mathit{\boldsymbol{G}}_{\rm{w}}}\mathit{\boldsymbol{U}}}} $ (10)

同样可根据式(7)推导过程得出最终特征方程

$ {\mathit{\boldsymbol{G}}_{\rm{w}}}^{ - \frac{1}{2}}{\mathit{\boldsymbol{G}}_{\rm{b}}}{\mathit{\boldsymbol{G}}_{\rm{w}}}^{ - \frac{1}{2}}\mathit{\boldsymbol{Z}} = \lambda \mathit{\boldsymbol{Z}} $ (11)

${\mathit{\boldsymbol{G}}_{\rm{w}}}$表示新形式类内散布矩阵,${\mathit{\boldsymbol{G}}_{\rm{b}}}$表示新形式类间散布矩阵。$\mathit{\boldsymbol{U}}$表示投影矩阵,${\mathit{\boldsymbol{U}}^{\rm{T}}}$表示投影矩阵的转置。${\mathit{\boldsymbol{G}}_{\rm{w}}}^{-\frac{1}{2}}{\mathit{\boldsymbol{G}}_{\rm{b}}}{\mathit{\boldsymbol{G}}_{\rm{w}}}^{-\frac{1}{2}}$为特征向量矩阵且为对称阵,$\mathit{\boldsymbol{U}}$$\mathit{\boldsymbol{Z}}$均表示特征值$\lambda $所对应的特征向量,$\mathit{\boldsymbol{Z = }}{\mathit{\boldsymbol{G}}_{\rm{w}}}^{-\frac{1}{2}}\mathit{\boldsymbol{U}}$为标准正交特征向量。

选出同时满足特征向量正交和函数式(3)最大化条件的投影向量组${\mathit{\boldsymbol{V}}_1}, {\mathit{\boldsymbol{V}}_2}, {\mathit{\boldsymbol{V}}_3}, \ldots, {\mathit{\boldsymbol{V}}_l}$,令$\mathit{\boldsymbol{V}} = [{\mathit{\boldsymbol{V}}_1}, {\mathit{\boldsymbol{V}}_2}, {\mathit{\boldsymbol{V}}_3}, \ldots, {\mathit{\boldsymbol{V}}_l}]$$\mathit{\boldsymbol{V}}$为最优投影矩阵。对于维数为$m$×$n$的人脸图像$\mathit{\boldsymbol{A}}$,向$\mathit{\boldsymbol{V}}$投影后得到$m$×$l$维特征矩阵$\mathit{\boldsymbol{R}}{\rm{ = }}\mathit{\boldsymbol{AV}}$,达到了垂直方向降维的目的。同理,再选出符合特征向量正交和函数式(10)最大化条件的投影向量组${\mathit{\boldsymbol{Z}}_1}, {\mathit{\boldsymbol{Z}}_2}, {\mathit{\boldsymbol{Z}}_3}, \ldots, {\mathit{\boldsymbol{Z}}_t}$,令$\mathit{\boldsymbol{Z}} = [{\mathit{\boldsymbol{Z}}_1}, {\mathit{\boldsymbol{Z}}_2}, {\mathit{\boldsymbol{Z}}_3}, \ldots, {\mathit{\boldsymbol{Z}}_t}]$$\mathit{\boldsymbol{Z}}$称为最优投影矩阵。对于维数为$m$×$n$的人脸图像$\mathit{\boldsymbol{A}}$,向$\mathit{\boldsymbol{Z}}$投影后得到$t$×$n$维特征矩阵$\mathit{\boldsymbol{S}} = {\mathit{\boldsymbol{Z}}^{\rm{T}}}\mathit{\boldsymbol{A}}$,达到了水平方向降维的目的。上述利用投影矩阵正交化和投影矩阵维数动态选取来求解特征矩阵$\mathit{\boldsymbol{R}}$$\mathit{\boldsymbol{S}}$的过程即为广义并行2维线性判别分析(GP2DLDA)算法。

通常$l$(或$t$)的具体数值是根据图像的大小而设定的,进一步可根据实验效果进行调整,但不一定能选出最主要最有鉴别力的特征向量组成投影矩阵。本文根据特征值$\lambda $的贡献率$ρ$确定$l$(或$t$)的数值,即$\rho = \sum\limits_{\tau = 1}^l {{\lambda _\tau }} /\sum\limits_{\tau = 1}^n {{\lambda _\tau }} $。当$ρ$=90%时,如果$l$(或$t$)小于10,那么$l$=10。这样既满足贡献率达到90%又避免特征向量矩阵接近奇异。如果$l$(或$t$)大于30,那么$l$=30。能够选出贡献率较大的主要特征值所对应的特征向量,达到降维目的。

将GP2DLDA方法得到的两类特征矩阵$\mathit{\boldsymbol{S}}$$\mathit{\boldsymbol{R}}$以复数的实部和虚部的方式相结合${\mathit{\boldsymbol{ \boldsymbol{\varOmega} }}_{kj}} = {\mathit{\boldsymbol{R}}_{kj}}^T + {\rm{i}}{\mathit{\boldsymbol{S}}_{kj}}$$\mathit{\boldsymbol{ \boldsymbol{\varOmega} }}$的大小为$f$×$g$,其中$f$=max{$l$, $t$},$g$=max{$m$, $n$},$\mathit{\boldsymbol{ \boldsymbol{\varOmega} }}$即训练样本集的融合特征。为了降低特征矩阵维数,从中挑选出最具鉴别力的信息,需要进一步计算一系列复特征矩阵的类间散布矩阵和类内散布矩阵为

$ {\mathit{\boldsymbol{Q}}_{\rm{w}}} = \sum\limits_{k = 1}^C {{p_k}} \sum\limits_{j = 1}^{{N_j}} {{{\left( {{\mathit{\boldsymbol{ \boldsymbol{\varOmega} }}_{kj}} - {\mathit{\boldsymbol{\alpha }}_k}} \right)}^{\rm{T}}}\left( {{\mathit{\boldsymbol{ \boldsymbol{\varOmega} }}_{kj}} - {\mathit{\boldsymbol{\alpha }}_k}} \right)} $ (12)

$ {\mathit{\boldsymbol{Q}}_{\rm{b}}} = \sum\limits_{k = 1}^C {{p_k}{{\left( {{\mathit{\boldsymbol{\alpha }}_k} - \mathit{\boldsymbol{\alpha }}} \right)}^{\rm{H}}}\left( {{\mathit{\boldsymbol{\alpha }}_k} - \mathit{\boldsymbol{\alpha }}} \right)} $ (13)

式中,$\mathit{\boldsymbol{\alpha }}$代表总体样本复特征矩阵的均值矩阵,${\mathit{\boldsymbol{\alpha }}_k}$代表第$k$类样本复特征矩阵的均值矩阵,H表示共轭转置,则样本复特征矩阵的Fisher准则函数为

$ J\left( \mathit{\boldsymbol{ \boldsymbol{\varLambda} }} \right) = \frac{{{\mathit{\boldsymbol{ \boldsymbol{\varLambda} }}^{\rm{H}}}{Q_{\rm{b}}}\mathit{\boldsymbol{ \boldsymbol{\varLambda} }}}}{{{\mathit{\boldsymbol{ \boldsymbol{\varLambda} }}^{\rm{H}}}{\mathit{\boldsymbol{Q}}_{\rm{w}}}\mathit{\boldsymbol{ \boldsymbol{\varLambda} }}}} $ (14)

计算最优投影向量$\mathit{\boldsymbol{ \boldsymbol{\varLambda} }}$使式(14)最大化,等价于特征向量

$ {\mathit{\boldsymbol{Q}}_{\rm{b}}}\mathit{\boldsymbol{ \boldsymbol{\varLambda} }} = \lambda {\mathit{\boldsymbol{Q}}_{\rm{w}}}\mathit{\boldsymbol{ \boldsymbol{\varLambda} }} $ (15)

根据式(7)推出最终特征方程

$ {\mathit{\boldsymbol{Q}}_{\rm{w}}}^{ - \frac{1}{2}}{\mathit{\boldsymbol{Q}}_{\rm{b}}}{\mathit{\boldsymbol{Q}}_{\rm{w}}}^{ - \frac{1}{2}}\mathit{\boldsymbol{ \boldsymbol{\varTheta} }} = \lambda \mathit{\boldsymbol{ \boldsymbol{\varTheta} }} $ (16)

式中,$\mathit{\boldsymbol{ \boldsymbol{\varLambda} }}$$\mathit{\boldsymbol{ \boldsymbol{\varTheta} }}$表示特征值$λ$所对应的特征向量,$\mathit{\boldsymbol{ \boldsymbol{\varTheta} = }}{\mathit{\boldsymbol{Q}}_{\rm{w}}}^{\frac{1}{2}}\mathit{\boldsymbol{ \boldsymbol{\varLambda} }}$为标准正交特征向量。选择符合向量正交和Fisher准则函数极大化条件的最佳投影向量组组成投影矩阵$\mathit{\boldsymbol{ \boldsymbol{\varTheta} }}$,它由前$r$个最大特征值所对应的特征向量所组成,即$\mathit{\boldsymbol{ \boldsymbol{\varTheta} }} = [{\mathit{\boldsymbol{ \boldsymbol{\varTheta} }}_1}, {\mathit{\boldsymbol{ \boldsymbol{\varTheta} }}_2}, {\mathit{\boldsymbol{ \boldsymbol{\varTheta} }}_3}, \ldots, {\mathit{\boldsymbol{ \boldsymbol{\varTheta} }}_r}]$,特征提取可表示为

$ \mathit{\boldsymbol{D}} = \mathit{\boldsymbol{ \boldsymbol{\varOmega} }} \times \mathit{\boldsymbol{ \boldsymbol{\varTheta} }} $ (17)

式中,$\mathit{\boldsymbol{D}}$即图像最终的复特征矩阵,它的大小为$f$×$r$,其中$f$=max{$l$, $t$}。

经过GP2DCDA算法处理图像,复特征矩阵$\mathit{\boldsymbol{D}}$中已包含最具鉴别力的分类信息,但仍可以从复特征矩阵$\mathit{\boldsymbol{D}}$中选出分类效果最强的特征。式(16)的第j个最大特征值可以衡量投影在特征矩阵第$j$列的信息量,即特征矩阵第$j$列的分类能力,记为${\lambda _j}$;同理,${\rho _{i1}} + {\rho _{i2}}$可以表示复特征矩阵$\mathit{\boldsymbol{D}}$$i$行的分类能力。其中,${\rho _{i1}}$${\rho _{i2}}$代表采用GP2DLDA方法处理图像后,提取到两种不同特征方程的第$i$个最大特征值。因而复特征矩阵$\mathit{\boldsymbol{D}}$中每个特征分量${\mathit{\boldsymbol{D}}_{ij}}$的分类能力可由$ζ$来衡量,即

$ {\zeta _{ij}} = {\lambda _j}\left( {{\mathit{\boldsymbol{\rho }}_{i1}} + {\mathit{\boldsymbol{\rho }}_{i2}}} \right) $ (18)

将复特征矩阵$\mathit{\boldsymbol{D}}$的每个分量按照其分类能力降序排列,由最具鉴别力的部分矩阵分量组成向量$\mathit{\boldsymbol{ \boldsymbol{\varGamma} }}$并作为分类依据。

2 基于GP2DCDA的特征提取与匹配

同一人在人脸库中包含多幅在光强变化、表情变换、姿态转换上有所差异的图像,因此需要对人脸图像建立特征库。

对人脸库中的人脸图像进行广义并行2维线性判别分析处理,根据特征值贡献率在两类特征空间选出最优正交投影向量组$\mathit{\boldsymbol{V}}$$\mathit{\boldsymbol{Z}}$,经过投影得到两类不同特征空间中的特征矩阵$\mathit{\boldsymbol{R}}$$\mathit{\boldsymbol{S}}$。再对图像进行广义2维复判别分析处理,将$\mathit{\boldsymbol{R}}$$\mathit{\boldsymbol{S}}$以复数的实部和虚部形式相加,得到每一幅图像新的表示形式${\mathit{\boldsymbol{ \boldsymbol{\varOmega} }}_{kj}} = {\mathit{\boldsymbol{R}}_{kj}}^T + {\rm{i}}{\mathit{\boldsymbol{S}}_{kj}}$。对${\mathit{\boldsymbol{ \boldsymbol{\varOmega} }}_{kj}}$进行特征提取,同样根据特征值贡献率选出最佳正交投影矩阵$\mathit{\boldsymbol{ \boldsymbol{\varTheta} }}$${\mathit{\boldsymbol{ \boldsymbol{\varOmega} }}_{kj}}$经投影后得到复特征矩阵${\mathit{\boldsymbol{D}}_{kj}}$,将${\mathit{\boldsymbol{D}}_{kj}}$的每个分量依据其对识别的贡献程度降序排列,选取最具鉴别力的分量组成最终的复特征${\mathit{\boldsymbol{ \boldsymbol{\varGamma} }}_{kj}}$

人脸库中同一人脸包含多幅不同图像,每幅图像均可以提取到其简洁且有代表性的特征${\mathit{\boldsymbol{ \boldsymbol{\varGamma} }}_{kj}}$。至此,可以得到以广义并行2维复判别分析为核心的人脸识别方法的人脸图像特征库。

将待识别人脸图像分别向正交投影向量组$\mathit{\boldsymbol{V}}$$\mathit{\boldsymbol{Z}}$投影,得到水平方向特征矩阵${\mathit{\boldsymbol{R}}_{{\rm{ts}}}}$和垂直方向特征矩阵${\mathit{\boldsymbol{S}}_{{\rm{ts}}}}$。将两类特征矩阵以复数形式相加,形成融合特征${\mathit{\boldsymbol{ \boldsymbol{\varOmega} }}_{{\rm{ts}}}}$。把融合特征${\mathit{\boldsymbol{ \boldsymbol{\varOmega} }}_{{\rm{ts}}}}$向正交投影向量组$\mathit{\boldsymbol{ \boldsymbol{\varTheta} }}$投影,获得复特征矩阵${\mathit{\boldsymbol{D}}_{{\rm{ts}}}}$。最后,将复特征矩阵分量按照其对鉴别的贡献程度降序排列,选取其中最具鉴别力的矩阵分量组成复特征${\mathit{\boldsymbol{ \boldsymbol{\varGamma} }}_{{\rm{ts}}}}$

对人脸库中的每一幅图像进行广义并行2维复判别分析处理,得到一幅图像最终的特征表示$\mathit{\boldsymbol{ \boldsymbol{\varGamma} }}$

为了对人脸图像进行快速有效的分类识别,本文比较测试样本特征向量与训练样本每一类图像的均值特征向量之间的差异,采用最大相似度分类器进行分类,相似度为

$ Sim\left( {{\mathit{\boldsymbol{ \boldsymbol{\varGamma} }}_{{\rm{ts}}}},\mathit{\boldsymbol{ \boldsymbol{\varGamma} }}{\mathit{\boldsymbol{m}}_k}} \right) = \frac{{{\mathit{\boldsymbol{ \boldsymbol{\varGamma} }}_{{\rm{ts}}}}^{\rm{T}} \cdot \mathit{\boldsymbol{ \boldsymbol{\varGamma} }}{\mathit{\boldsymbol{m}}_k}}}{{{{\left\| {{\mathit{\boldsymbol{ \boldsymbol{\varGamma} }}_{{\rm{ts}}}}} \right\|}_2}{{\left\| {\mathit{\boldsymbol{ \boldsymbol{\varGamma} }}{\mathit{\boldsymbol{m}}_k}} \right\|}_2}}} $ (19)

式中,${\mathit{\boldsymbol{ \boldsymbol{\varGamma} }}_{{\rm{ts}}}}$表示测试样本特征向量,$\mathit{\boldsymbol{ \boldsymbol{\varGamma} }}{\mathit{\boldsymbol{m}}_k}$表示第$k$类训练样本均值特征向量。$Sim$值越大,表示测试样本特征${\mathit{\boldsymbol{ \boldsymbol{\varGamma} }}_{{\rm{ts}}}}$与第$k$类均值特征向量$\mathit{\boldsymbol{ \boldsymbol{\varGamma} }}{\mathit{\boldsymbol{m}}_k}$越相似,即越有可能是同一类人脸图像,反之则越不可能归为同一类。

为了观察本文算法在人脸图像上提取了哪些特征,以及这些特征的分布状态,将融合特征$\mathit{\boldsymbol{ \boldsymbol{\varOmega} }}$重新拆分成水平方向特征和垂直方向特征并重建人脸图像。原始人脸图像和经过水平特征及垂直特征重构的二值图像如图 2所示。

图 2 人脸原始图像和特征重构图像
Fig. 2 The original face images and feature reconstructed images((a) original face images; (b) horizontal features reconstructed images; (c) vertical features reconstructed images)

3 实验与分析

以广义并行2维复判别分析为核心进行识别,在2.60 GHz/2 GB机器上用MATLAB实现。采用ORL与Yale人脸数据库[18]、CMU-PIE[19]人脸库、FERET人脸库[20]及LFW人脸库[21]进行算法检测与对比分析。

采用交叉验证方式进行实验以确保实验结果准确性和数据全面性。从人脸库中每一类人脸图像中随机抽取数量为3~8的人脸图像参与训练,剩余图像作为测试样本。选定训练样本容量后,每组实验均执行50次,以计算算法的平均准确率。

3.1 Yale、ORL、FERET人脸库测试

ORL人脸库共有400幅人脸图像(40人,10幅/人),含有姿态、光线条件、面部表情和遮挡情况的差异,每幅图像大小为92×112像素。Yale人脸数据库中有165幅图像(15人,11幅/人),每幅图像大小为100×100像素,且有光线、姿态和表情等差异。FERET人脸库的一个姿态子库包含1 400幅图像(200人,7幅/人),每幅图像大小为80×80像素。

实验选取ORL人脸库400幅人脸图像、Yale人脸库165幅和FERET人脸数据库1 400幅人脸图像进行匹配实验,这些图像在姿态、光照强度、表情、采集时间等方面因人脸库的不同而有不同程度的差异。随机从ORL人脸库、Yale人脸库和FERET人脸库中抽取20幅图像如图 3所示。

图 3 ORL、Yale和FERET人脸库图像示例
Fig. 3 The face database sample of ORL, Yale and FERET face image

为了验证GP2DCDA算法对受到光照、表情、眼镜遮挡、旋转等因素影响的人脸图像识别有优越性,本文与其他算法在同一实验平台下进行了大量的对比实验。文献[12]提出2DLDA人脸识别方法,算法步骤为:1)求解最佳投影矩阵;2)将训练样本向投影矩阵投影;3)将测试样本向投影矩阵投影;4)比较特征向量的差异程度得到识别结果。文献[13]提出基于ULBP特征子空间的2DLDA人脸识别方法,其算法步骤为:1)将图像层次化分割并提取分割后子块的局部二值模式直方图特征;2)将灰度空间投影到ULBP特征子空间;3)采用2DLDA算法处理图像;4)将训练样本和测试样本向投影矩阵投影;5)采用KNN分类器分类识别。文献[16]提出基于2维复判别分析的人脸识别方法,算法步骤为:1)首先通过(2D)2LDA算法并行提取行和列两方向的特征矩阵;2)将行和列特征矩阵以复数形式组合,形成新的图像表示;3)在复数特征矩阵中提取最具分类能力的矩阵分量构成特征向量;4)采用KNN分类器分类识别。文献[17]提出广义2维线性判别分析的人脸识别方法,算法步骤为:1)将2DLDA算法的投影向量组转化成标准正交投影矩阵;2)将训练样本向正交投影矩阵投影;3)将测试样本向正交投影矩阵投影;4)采用余弦分类器分类识别。本文方法与文献[12-13, 16-17]在ORL、Yale和FERET人脸库上的识别效果见表 1。(每种方法均按照原文所描述的算法过程实现,实验结果与原文提供结果基本一致。)

表 1 不同算法在Yale、ORL及FERET人脸库中随去着训练样本$N$变化的识别准确率
Table 1 The recognition accuracy of different algorithms based on Yale, ORL and FERET database with training sample changes

下载CSV
人脸库 算法 训练样本N
3 4 5 6 7 8
Yale 文献[12] 0.719 6 0.792 3 0.900 5 0.964 7 0.975 2 0.979 7
文献[16] 0.842 9 0.874 4 0.926 8 0.969 1 0.974 9 0.986 9
文献[17] 0.907 1 0.921 5 0.928 4 0.955 2 0.964 5 0.969 7
文献[13] 0.984 1 0.990 4 0.991 1 0.993 4 0.996 8 0.997 1
本文 0.988 7 0.994 6 0.998 2 0.999 7 1 1
ORL 文献[12] 0.712 5 0.774 2 0.822 5 0.897 5 0.935 0 0.962 5
文献[16] 0.873 3 0.902 5 0.918 4 0.937 4 0.951 8 0.963 9
文献[17] 0.865 1 0.882 5 0.923 2 0.942 5 0.969 3 0.975 1
文献[13] 0.929 7 0.961 9 0.977 1 0.979 7 0.984 9 0.990 3
本文 0.989 9 0.991 7 0.998 6 1 1 1
FERET 文献[12] 0.703 6 0.763 2 0.814 6 \ \ \
文献[16] 0.854 2 0.899 8 0.920 5 \ \ \
文献[17] 0.842 6 0.876 7 0.915 2 \ \ \
文献[13] 0.813 1 0.875 0 0.916 8 \ \ \
本文 0.975 5 0.986 9 0.989 8 \ \ \
注:“\”表示数据未参与实验。

从上述实验结果中可以发现,本文算法在Yale人脸数据库中识别率最高可达100%,表明本文算法对光照强度、表情变化以及是否佩戴眼镜这些情况均有很好的鲁棒性。在Yale人脸数据库中各算法的识别准确率均在训练样本递增过程中有所提升,但在训练样本较少的情况下识别效果与本文有较大差距,表明本文算法能有效克服对训练样本容量的依赖。

文献[12-13, 16]在ORL人脸库中的识别准确率比在Yale人脸库中的略低。文献[17]在ORL人脸库中的最优识别效果比Yale人脸库中的最优识别效果有所提升。文献[13]算法识别率虽有所下降但是较其他算法识别准确率仍较高,表明图像旋转角度的变化对这些算法有一定影响。本文算法在ORL和Yale人脸库中的识别效果均高于其他算法,表明本文算法对光照强度变化较小且旋转角度在±20%之间的人脸图像识别具有很好的鲁棒性。

在FERET人脸库识别中,文献[12-13, 16-17]的识别效果均不如在Yale和ORL人脸库中识别效果好。这些算法对姿态变化角度在±25%之间的人脸图像识别效果不强,而本文算法识别准确率在训练样本数量为5时达到98.98%,表明本文算法对人脸图像姿态变化有较好的鲁棒性。

在同等条件下,本文算法与其他算法识别率均达到最优时,各算法的降维效果见表 2

表 2 各算法特征维数及最优识别率对比
Table 2 Comparison of optimal recognition effect and feature dimension of each algorithm

下载CSV
算法 Yale ORL FERET
文献[12] 100×10
(0.979 7)
112×9
(0.962 5)
80×9
(0.814 6)
文献[16] 120
(0.986 9)
90
(0.963 9)
100
(0.920 5)
文献[17] 100×15
(0.969 7)
112×8
(0.975 1)
80×11
(0.915 2)
文献[13] 59×36
(0.997 1)
59×8
(0.990 3)
59×28
(0.916 8)
本文 90
(1)
85
(1)
90
(0.989 8)

本文改进了投影向量的求解方式和计算过程,根据特征值贡献率动态选择其对应的特征向量,使本文算法提取到的特征稳定性强且维数低。对比可以发现,每种算法均达到最优识别效果时,在Yale人脸库中本文算法提取特征的维数比文献[16]算法降低了25%,比文献[13]算法降低了95.8%;在ORL人脸库中本文算法提取特征的维数比文献[16]算法降低了5.6%,比文献[12]算法降低了91.6%;在FERET人脸库中本文算法提取特征的维数比文献[16]算法降低了10%,比文献[13]算法降低了94.6%。与其他算法相比, 本文算法的特征维数最少、识别效果最好,兼顾了识别性能和降维效果两方面。

3.2 CMU-PIE人脸库测试

由于3.1节中提及的人脸库在姿态、遮挡、表情、光照和背景等方面变化程度较小,在此类库上实验是为验证本文方法的有效性。为进一步验证本文算法对光照和表情变化的识别性能,采用CMU-PIE人脸库样本集做训练和测试,CMU-PIE人脸数据库共有68人的41 368幅在姿态、光照和表情方面均有较大差异的人脸图像。随机从CMU-PIE人脸数据库中的EXPRESSION样本集中抽取20人的图像作为EXPRESSION样本库,样本库中含有780幅人脸图像(20人,39幅/人),经裁剪后每幅图像大小为226×282像素;随机从ILLUM图像集中抽取20人的图像作为ILLUM样本库,样本库中含有780幅人脸图像(20人,39幅/人),经裁剪后每幅图像大小为226×282像素。随机抽取EXPRESSION和ILLUM样本库中10幅人脸图像如图 4所示。

图 4 CMU-PIE数据库人脸图像示例
Fig. 4 The sample of CMU-PIE original face image

本文方法与其他几种算法在CMU-PIE人脸库中进行识别效果对比。文献[7]提出L_(2, 1)范数正则化的广义核判别分析人脸识别算法,算法步骤为:1)将样本图像矩阵映射到高维空间;2)计算最佳投影向量组,特征向量正交化;3)加入L_(2, 1)范数惩罚项;4)采用欧氏距离分类器分类识别。文献[14]提出基于最近正交矩阵的2维鉴别投影人脸识别算法,算法步骤为:1)对图像矩阵进行奇异值分解;2)求出类内散布矩阵和类间散布矩阵;3)向最佳投影向量组投影;4)采用最邻近方法分类识别。本文方法与其他算法识别效果对比见表 3表 4

表 3 不同算法在CMU-PIE(EXPRESSION)人脸库中随着训练样本$N$变化的识别准确率
Table 3 The recognition accuracy of different algorithms based on CMU-PIE (EXPRESSION)database with training sample changes

下载CSV
N 文献[7] 文献[14] 文献[17] 本文
3 0.752 3 0.906 5 0.753 6 0.968 4
4 0.765 9 0.911 2 0.766 1 0.979 4
5 0.781 2 0.928 7 0.766 7 0.982 3
6 0.790 6 0.934 6 0.828 5 0.986 5
7 0.818 3 0.952 9 0.822 4 0.990 3
8 0.834 9 0.964 3 0.879 6 0.997 6

表 4 不同算法在CMU-PIE(ILLUM)人脸库中随着训练样本$N$变化的识别准确率
Table 4 The recognition accuracy of different algorithms based on CMU-PIE (ILLUM)database with training sample changes

下载CSV
N 文献[7] 文献[14] 文献[17] 本文
3 0.750 3 0.901 2 0.704 3 0.956 8
4 0.767 4 0.909 9 0.711 2 0.968 3
5 0.779 8 0.915 6 0.717 0 0.979 0
6 0.783 3 0.923 8 0.727 9 0.982 9
7 0.806 9 0.933 4 0.739 2 0.989 2
8 0.822 5 0.947 8 0.748 0 0.990 9

文献[7]和文献[17]在CMU-PIE的两个样本库中的识别准确率均不超过85%。文献[14]算法对CMU-PIE人脸数据库有较好的适应性,识别准确率明显高于文献[7]和文献[17]算法。本文算法在EXPRESSION子库中识别准确率伴随训练样本容量的增加稳步提升至99.76%,且训练样本容量为8的情况下识别准确率较文献[7]、文献[14]、文献[17]分别增加了19.5%、3.5%、13.4%;本文算法在ILLUM子库中识别准确率伴随训练样本容量的增加有所提升,均保持在95%以上。表明本文算法针对光强变换明显、姿态转变较大的人脸图像识别有较好的鲁棒性。

特征维数是识别效果的影响因素之一,维数过高会增加识别过程耗时,且容易包含冗余信息;维数过低会降低识别准确性。因此,好的特征选择机制能提升人脸识别效果。

为说明本文采用动态特征选择机制的提升效果,将本文方法与固定特征值的本文方法及其他算法在CMU-PIE库的ILLUM样本集中进行实验,识别效果对比如图 5所示。

图 5 不同算法识别效果对比
Fig. 5 Comparison of recognition effect of different algorithms

经过实验可以发现,根据特征值贡献率动态选择特征向量,有效去除了冗余内容并且保留了最具鉴别力的信息,相比仅根据图片大小和实验效果进行调节的特征向量选择方式,降维能力和识别性能均有所提升,比固定特征值数量方法提升了4.9%的准确率。

3.3 LFW人脸库测试

LFW人脸数据库中的人脸图像均通过网络途径获取,包含5 297个人组成的13 233幅图像,该图像库能有效评价算法在实际非限定条件下的识别性能。LFW-a是采用商业校准软件校准之后的版本。本文使用其中1 580幅(158人,10幅/人)图像进行训练和测试,每幅图像大小为32×32像素。随机选取其中20位志愿者的图像如图 6所示。

图 6 LFW人脸库图像示例
Fig. 6 The sample of LFW original face images

为验证本文算法对非限定条件下获取的人脸图像在识别方面是否具有优越性,将本文算法与其他文献算法在LFW人脸库上进行对比实验,识别效果见表 5。文献[6]提出一种核零空间线性鉴别分析的人脸识别方法,具体算法过程为:1)将样本图像矩阵映射到高维空间中;2)计算系数矩阵;3)计算样本特征。文献[11]提出了一种多层次深度网络融合的人脸识别方法,具体算法步骤为:1)获取人脸特征点并将人脸区域划分为5个局部块;2)利用全局人脸训练全局网络完成样本预分类;3)利用局部人脸块训练局部网络完成最终分类。

表 5 不同算法在LFW人脸库中随着训练样本$N$变化的识别准确率
Table 5 The recognition accuracy of different algorithms based on LFW database with training sample changes

下载CSV
N 文献[6] 文献[11] 本文
3 0.860 4 0.936 7 0.947 5
4 0.879 6 0.942 3 0.951 6
5 0.896 7 0.958 4 0.962 3
6 0.921 7 0.960 8 0.978 2
7 0.954 8 0.969 6 0.983 3
8 0.976 2 0.976 8 0.986 7

表 5中实验结果表明本文算法针对非限定条件下获取的人脸图像识别有一定优势。当训练样本数达到8时,本文算法识别准确率与文献[6]和文献[11]相比分别增加了1.08%和1.01%。该样本库每类样本数为10,充分证明本文算法在样本数量较少、图像拍摄环境非限定、姿态发生转换、光强变化明显的条件下有很好的适应性。

不同算法在LFW人脸库中达到最优识别效果时特征维数对比如图 7所示。

图 7 不同算法降维效果对比
Fig. 7 Comparison of dimension reduction effect of different algorithms

结合表 5可知, 本文算法在LFW人脸库中达到最优识别效果时识别性能略高于另两种算法。就降维效果而言,本文算法与文献[6]相比有所提高,与文献[11]相比有非常大的提升,表明本文算法在平衡降维效果与识别性能方面有一定的优势。

4 结论

提出一种广义并行2维复判别分析的人脸识别方法,该算法可以有效处理小样本事件,克服光强变化,表情变化,姿态变化等导致识别率不佳的情况,对非限定条件下获取的人脸图像识别也有较好的鲁棒性。

本文通过将特征向量转化为正交特征向量,有效改善了2维线性判别分析提取特征不稳定的情况;分别从水平和垂直方向提取特征,充分获取了有效的鉴别信息;特征向量的选取是根据特征值贡献程度进行动态选择,使得提取到的特征最具鉴别力;将两种特征以复数相加的方式融合,对两种特征均予以保留;最后再次根据特征值的贡献效果选择最后参与分类的特征,使得特征维数较其他方法更低。

本文针对人脸图像提取线性特征进行识别分类,忽略了人脸图像中存在的非线性特征,今后可就非线性特征提取方面对GP2DCDA算法进行扩展;在时间复杂度方面与其他方法相比没有明显的优势,今后需进一步研究如何降低时间复杂度的同时增加非线性特征的提取。

参考文献

  • [1] Chan C H, Kittler J, Tahir M A. Kernel fusion of multiple histogram descriptors for robust face recognition[M]//Hancock E R, Wilson R C, Windeatt T, et al. Structural, Syntactic, and Statistical Pattern Recognition. Berlin, Heidelberg: Springer, 2017: 718-727. [DOI: 10.1007/978-3-642-14980-1_71]
  • [2] Yin X, Liu X M. Multi-task convolutional neural network for pose-invariant face recognition[J]. IEEE Transactions on Image Processing, 2018, 27(2): 964–975. [DOI:10.1109/TIP.2017.2765830]
  • [3] Li Q Y, Jiang J G, Qi M B. Face recognition algorithm based on improved deep networks[J]. Acta Electronica Sinica, 2017, 45(3): 619–625. [李倩玉, 蒋建国, 齐美彬. 基于改进深层网络的人脸识别算法[J]. 电子学报, 2017, 45(3): 619–625. ] [DOI:10.3969/j.issn.0372-2112.2017.03.017]
  • [4] Yuan H, Wang Z H, Jiang W T. 3D Face recognition approach based on singular point neighborhood structure[J]. Control and Decision, 2017, 32(10): 1739–1748. [袁姮, 王志宏, 姜文涛. 基于奇异点邻域结构的三维人脸识别方法[J]. 控制与决策, 2017, 32(10): 1739–1748. ] [DOI:10.13195/j.kzyjc.2016.0936]
  • [5] Kong R, Zhang B. Research on face recognition method under uncontrolled illumination variation[J]. Journal of System Simulation, 2016, 28(3): 689–695. [孔锐, 张冰. 光照变化条件下人脸识别方法研究[J]. 系统仿真学报, 2016, 28(3): 689–695. ]
  • [6] Gan J Y, He G H, He S B. Kernel null space linear discriminant analysis and its applications in face recognition[J]. Chinese Journal of Computers, 2014, 37(11): 2374–2379. [甘俊英, 何国辉, 何思斌. 核零空间线性鉴别分析及其在人脸识别中的应用[J]. 计算机学报, 2014, 37(11): 2374–2379. ] [DOI:10.3724/SP.J.1016.2014.02374]
  • [7] Fu J P, Chen X H, Ge X Q. Face recognition by generalized kernel discriminant analysis via L2, 1-norm regularization[J]. Journal of Frontiers of Computer Science and Technology, 2017, 11(1): 124–133. [傅俊鹏, 陈秀宏, 葛骁倩. L2, 1范数正则化的广义核判别分析及其人脸识别[J]. 计算机科学与探索, 2017, 11(1): 124–133. ] [DOI:10.3778/j.issn.1673-9418.1510052]
  • [8] Ruan Y, Chen H W, Liu Z H, et al. Quantum principal component analysis algorithm[J]. Chinese Journal of Computers, 2014, 37(3): 666–676. [阮越, 陈汉武, 刘志昊, 等. 量子主成分分析算法[J]. 计算机学报, 2014, 37(3): 666–676. ]
  • [9] Muqeet M A, Holambe R S. Face recognition using LDA based generalized half band polynomial wavelet filter bank[C]//International Conference on Electrical, Electronics, and Optimization Techniques. Chennai, India: IEEE, 2016: 4649-4653. [DOI: 10.1109/ICEEOT.2016.7755601]
  • [10] Juneja K. A noise robust VDD composed PCA-LDA model for face recognition[C]//Proceedings of the 2nd International Conference on Information, Communication and Computing Technology. Singapore: Springer, 2017: 216-229. [DOI: 10.1007/978-981-10-6544-6_21]
  • [11] Hu Z P, He W, Wang M, et al. Multi-level deep network fused for face recognition[J]. Pattern Recognition and Artificial Intelligence, 2017, 30(5): 448–455. [胡正平, 何薇, 王蒙, 等. 多层次深度网络融合人脸识别算法[J]. 模式识别与人工智能, 2017, 30(5): 448–455. ] [DOI:10.16451/j.cnki.issn1003-6059.201705007]
  • [12] Kong H, Wang L, Teoh E K, et al. A framework of 2D fisher discriminant analysis: application to face recognition with small number of training samples[C]//Proceedings of 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR). San Diego, CA, USA: IEEE, 2005. [DOI: 10.1109/CVPR.2005.30]
  • [13] Wu H P, Dai S K. Face recognition of 2DLDA based on ULBP eigensubspace[J]. Pattern Recognition and Artificial Intelligence, 2014, 27(10): 894–899. [吴煌鹏, 戴声奎. 基于ULBP特征子空间的2DLDA人脸识别方法[J]. 模式识别与人工智能, 2014, 27(10): 894–899. ] [DOI:10.3969/j.issn.1003-6059.2014.10.005]
  • [14] Yin J, Sun S L. Two dimensional discriminative projection based on nearest orthogonal matrix and its application to face recognition[J]. Journal of Computer-Aided Design & Computer Graphics, 2017, 29(8): 1457–1464. [殷俊, 孙仕亮. 基于最近正交矩阵的二维鉴别投影及人脸识别应用[J]. 计算机辅助设计与图形学学报, 2017, 29(8): 1457–1464. ] [DOI:10.3969/j.issn.1003-9775.2017.08.008]
  • [15] Noushath S, Hemantha Kumar G, Shivakumara P. (2D)2LDA:an efficient approach for face recognition[J]. Pattern Recognition, 2006, 39(7): 1396–1400. [DOI:10.1016/j.patcog.2006.01.018]
  • [16] Hu X, Yu W X, Yu Q. Study on face recognition based on two-dimensional combined complex discriminant analysis[J]. Computer Engineering and Design, 2010, 31(11): 2514–2518. [胡晓, 俞王新, 余群. 基于二维复判别分析的人脸识别研究[J]. 计算机工程与设计, 2010, 31(11): 2514–2518. ]
  • [17] Song J D, Zhou M Q, Lu J H, et al. A novel method based on generalized 2DLDA for application of face recognition[J]. Journal of Chinese Computer Systems, 2015, 36(4): 856–861. [宋家东, 周明全, 卢金环, 等. 一种基于广义2DLDA算法在人脸识别的应用[J]. 小型微型计算机系统, 2015, 36(4): 856–861. ] [DOI:10.3969/j.issn.1000-1220.2015.04.042]
  • [18] Zhang X H, Shan S G, Cao B, et al. CAS-PEAL:a large-scale Chinese face database and some primary evaluation[J]. Journal of Computer-Aided Design & Computer Graphics, 2005, 17(1): 9–17. [张晓华, 山世光, 曹波, 等. CAS-PEAL大规模中国人脸图像数据库及其基本评测介绍[J]. 计算机辅助设计与图形学学报, 2005, 17(1): 9–17. ] [DOI:10.3321/j.issn:1003-9775.2005.01.002]
  • [19] Sim T, Baker S, Bsat M. The CMU pose, illumination, and expression database[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2003, 25(12): 1615–1618. [DOI:10.1109/TPAMI.2003.1251154]
  • [20] Phillips P J, Moon H, Rizvi S A, et al. The FERET evaluation methodology for face-recognition algorithms[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2000, 22(10): 1090–1104. [DOI:10.1109/34.879790]
  • [21] Huang G B, Ramesh M, Berg T, et al. Labeled faces in the wild: a database for studying face recognition in unconstrained environments[R]. Massachusetts: University of Massachusetts, 2007.