Print

发布时间: 2020-07-16
摘要点击次数:
全文下载次数:
DOI: 10.11834/jig.190503
2020 | Volume 25 | Number 7




    图像分析和识别    




  <<上一篇 




  下一篇>> 





增强型灰度图像空间实现虹膜活体检测
expand article info 刘明康1,2, 王宏民1, 李琦2, 孙哲南2
1. 哈尔滨理工大学自动化学院, 哈尔滨 150001;
2. 中国科学院自动化研究所, 北京 100190

摘要

目的 虹膜作为一种具有高稳定性与区分性的生物特征,使得虹膜识别在应用场景中十分普及,但很多虹膜识别系统在抵御各类演示攻击时无法保证十足的可靠性,导致虹膜识别在高级安全场景中的应用受限,使得虹膜活体检测成为生物识别技术中亟需解决的问题之一。现有的区分真实与假体虹膜最先进的算法主要依靠在原始灰度空间中提取的虹膜纹理深度特征,但这类特征差异不明显,只能辨别单源假体虹膜。为此,提出一种基于增强型灰度图像空间的虹膜活体检测方法。方法 利用残差网络(ResNet)将原始虹膜图像映射到可分离的灰度图像空间,使真假虹膜特征具有明显的判别性;用预训练LightCNN(light convolational neural networks)-4网络提取新空间中的虹膜纹理特征;设计三元组损失函数与softmax损失函数训练模型实现二分类任务。结果 在两个单源假虹膜数据库上采用闭集检测方式分别取得100%和99.75%的准确率;在多源假虹膜数据库上采用开集检测方式分别取得98.94%和99.06%的准确率。结论 本文方法通过空间映射的方式增强真假虹膜纹理之间清晰度的差异,设计三元组损失函数与softmax损失函数训练模型,既增加正负样本集之间的距离差,又提升模型收敛速度。实验结果表明,基于图像空间的分析与变换可有效解决真实虹膜与各类假体虹膜在原始灰度空间中不易区分的问题,并且使网络能够准确检测未知类型的假体虹膜样本,实现虹膜活体检测的最新性能,进一步提升了虹膜活体检测方法的泛化性。

关键词

虹膜活体检测; 增强型灰度空间; 三元组网络; 特征差异; 泛化性

Enhanced gray-level image space for iris liveness detection
expand article info Liu Mingkang1,2, Wang Hongmin1, Li Qi2, Sun Zhenan2
1. School of Automation, Harbin University of Science and Technology, Harbin 150001, China;
2. Institute of Automation, Chinese Academy of Sciences, Beijing 100190, China
Supported by: National Natural Science Foundation of China (61427811, U1836217, 61573360, 61721004, 61702513, 61806197); National Key Research and Development Program of China (2017YFC0821602, 2016YFB1001000)

Abstract

Objective Iris refers to the annular area between the black pupil and the white sclera of human eyes. It is a biological characteristic with high stability and discrimination ability. Therefore, the iris recognition technology has already been applied to various practical scenarios. However, many iris recognition systems still fail to assure full reliability when facing different presentation attacks. Thus, iris recognition systems cannot be deployed in conditions with strict security requirements. Iris anti-spoofing is a concerned problem in biometrics demanding robust solutions. Iris anti-spoofing (or iris presentation attack detection) aims to judge whether the input iris image is captured from a living subject. This technology is important to prevent invalid authentication from spoofing attacks and protect the security or benefits of users; it needs to be applied to all authentication systems. Existing state-of-the-art algorithms mainly rely on the deep features of iris textures extracted in original gray-scaled space to distinguish fake irises from genuine ones. However, these features can identify only single fake iris pattern, and genuine and various fake irises are overlapped in the original gray-scaled space. A novel iris anti-spoofing method is thus proposed in this study. The triplet network is equipped with a space transformer that is designed to map the original gray-scaled space into a newly enhanced gray-level space, in which the iris features between a specific genuine iris and various fake irises are highly discriminative. Method A raw eye image includes sclera, pupil, iris, and periocular areas, but only the information of iris is needed. Consequently, the raw image should be preprocessed before image space mapping. The preprocessing mainly includes iris detection, localization, segmentation, and normalization. After a series of image-preprocessing steps, the original gray-scaled normalized iris images are mapped into a newly enhanced gray-level space using the residual network, in which the iris features are highly discriminative. The pretrained LightCNN (light convolutional neural networks)-4 network is used to extract deep features of iris images in the new space. Triplet and softmax losses are adopted to train the model to accomplish a binary classification task. Result We evaluate the proposed method on three available iris image databases. The ND-Contact (notre dame cosmetic contact lenses) and CRIPAC (center for research on intelligent perception and computing)-Printed-Iris databases include only cosmetic contact lenses and printed iris images, respectively. The CASIA (Institute of Automation, Chinese Academy of Sciences)-Iris-Fake database includes various fake iris patterns, such as cosmetic contact lens, printed iris, plastic iris (fake iris textures are printed on plastic eyeball models), and synthetic iris (image generation technology based on GAN(generative adversarial networks)). CRIPAC-Printed-Iris is a newly established fake iris database by us for researching on anti-spoofing attack detection algorithms. We perform evaluations in two different detection settings, namely, "close set" and "open set" detection. The "close set" setup means that the training and testing sets share the same type of presentation attack. The "open set" setup refers to the condition in which the presentation attacks unseen in the training set may appear in the testing set; it is considered in our experiments to provide a comprehensive analysis of the proposed method. Experimental results show that the proposed method can achieve accuracy of 100% and 99.75% on two single fake iris pattern databases in the "close set" detection setup. For the hybrid fake iris pattern database, the proposed method can achieve accuracies of 98.94% and 99.06% in the "open set" detection setup. The ablation study shows that the deep features of iris images in the enhanced gray-level image space are more discriminative than those in the original gray-scaled space. Conclusion The proposed method first enhances the difference in sharpness between genuine and fake iris textures by a space-mapping approach. Then, it minimizes the intraclass distance, maximizes the interclass distance, and keeps a safe margin by triplet loss between genuine and fake iris samples. Thus, the classification accuracy is improved. The model convergence speed is improved by softmax loss. The triplet loss only aims to local samples; as a result, the network training is unstable, and the convergence speed is slow. Thus, we combine the softmax loss to train the classification network, which can provide a global classification interface (aiming to global samples) to increase the convergence speed of network training. Experimental results demonstrate that the analysis and transformation based on image space can effectively solve the difficulty in separating genuine iris and various types of fake irises in the original gray-scaled space. To the best of our knowledge, this is the first time a deep network can distinguish a genuine iris from various types of fake irises because an obvious difference exists between the genuine iris image and various fake iris images in the enhanced gray-level image space. In the "close set" and "open set" detection settings, the trained network can accurately identify the deep features of a specific genuine iris image and distinguish it from various other fake iris images. Therefore, our proposed method can achieve a state-of-the-art performance in iris anti-spoofing, which indicates its effectiveness. The proposed method further enriches and perfects the generalization of a detection method for iris anti-spoofing attacks.

Key words

iris liveness detection; enhanced gray-level space; triplet network; discriminative feature; generalization

0 引言

虹膜识别技术在各种身份认证场景中应用广泛,虹膜识别系统在识别个体虹膜时可以达到很高精度,但仍然容易受到各类欺骗攻击(Rathgeb和Uhl, 2010, 2011)。为了应对无效认证的潜在风险,有必要开发智能算法来保护虹膜识别系统免受各种类型的欺骗攻击。虹膜活体检测或虹膜呈现攻击检测旨在区分输入系统的虹膜图像是否从活人个体捕获,避免系统承受印刷虹膜(Gupta等,2014)、塑料虹膜(塑料眼球模型)、合成虹膜(生成式对抗网络(generative adversarial networks,GAN)图像生成技术)(Kohli等,2016, 2017Zuo等,2006)和美瞳虹膜(彩色隐形眼镜)(Baker等,2010)的呈现攻击。作为虹膜识别技术的重要组成部分,虹膜活体检测可以有效降低各种假虹膜图案的攻击风险。目前先进的虹膜活体检测算法都是基于原始灰度空间中的深度特征分析真假虹膜之间的差异。Yan等人(2018)提出一种分层次多类别分类(hierarchical multi-class classification,HMC)深度网络,包含两个级联的GoogleNet,通过分层过程分别处理戴隐形眼镜的虹膜图像(局部假)和印刷虹膜图像(全局假),但无法同时区分真实虹膜与各类假体虹膜。Hoffman等人(2018)提出充分利用眼周与虹膜信息,将两种图像各自细分为多个patch,提供自然形式的数据增强,分别由卷积神经网络(convolutional neural network,CNN)处理,分析和融合不同方案的分类性能,但不能很准确地检测未知模式的假体虹膜。上述基于深度特征的算法未能很好地解决虹膜活体检测最根本的开集问题,即由已知数据训练的检测网络在面对未知数据时,检测错误率依然很高,泛化性很差。尽管现有方法都在尽力寻找更为细致的虹膜深度特征,但在原始灰度空间中,真实特征与假体特征的差异不甚明显,导致真假虹膜的特征分布产生大量重叠而不易区分,致使利用原始灰度虹膜图像训练的检测网络不能很好地辨识没有经验的虹膜图像类型。为此,利用一种端到端的深度网络生成一个可分离的灰度图像空间(Li等,2018),这种由原始灰度空间映射到可分离灰度空间的深度神经网络称为增强型灰度空间生成器。此时真假虹膜图像具有明显差异,并且真实虹膜的特征分布明显区别于假体虹膜,可有效区分真实虹膜与假体虹膜。如图 1图 2所示,图 2中横、纵坐标均代表 2D空间内虹膜样本之间的距离度量值。同时,对未知的数据类型,检测网络依然可以明确辨别虹膜的真假属性(图 1图 2均为实验结果图)。由于在增强型灰度空间中的真假虹膜图像具有明显差异,因此可利用特征相似度进行分类,即设计三元组损失函数训练分类网络。然而,三元组损失函数仅针对局部样本,致使网络收敛慢,因此可结合softmax损失函数训练分类网络,提供一个全局分类的界面,提升网络收敛速度。为了稳定地训练网络,选取网络输入时引入点到中心的三元组机制组合训练样本(Li等,2018)。

图 1 真假虹膜样本
Fig. 1 Genuine and fake iris samples ((a) samples in original gray-scaled space; (b) samples in enhanced gray-level space)
图 2 真假虹膜样本的特征分布
Fig. 2 Feature distribution of genuine and fake iris samples ((a) samples in original gray-scaled space; (b) samples in enhanced gray-level space)

为了评估所提方法的性能,在ND-Contact(notre dame cosmetic contact lenses)(Doyle等,2013),CRIPAC(center for research on intelligent perception and computing)-Printed-Iris和CASIA(Institute of Automation, Chinese Academy of Sciences)-Iris-Fake(Sun等,2014)数据库上进行实验,其中CRIPAC-Printed-Iris为新建立的真假虹膜数据库。通过闭集检测与开集检测综合分析本文方法的检测性能,不仅可以检验利用图像空间的分析与转换解决虹膜活体检测问题的可行性,更重要的是检验所提方法辨别未知数据类型的泛化性。本文的主要贡献概括如下:1)首次利用图像空间分析与转换的方式解决虹膜活体检测问题,突破原始灰度空间中真假虹膜不易区分的局限性,使分类网络检测未知类型的假体虹膜时,呈现良好的泛化性;2)建立了一个新的真假虹膜数据库,利用该数据库综合评估了所提方法的可行性与增强型灰度空间解决真假虹膜图像分类的必要性。

1 相关工作

1.1 基于手工制作特征的方法

算法级别的虹膜活体检测方法主要基于两类虹膜特征区分真假虹膜图像,分别是手工制作特征和深度特征。

基于手工制作特征的方法主要有:Sun等人(2014)提出一种分层视觉码本(hierarchical visual codebook,HVC)的方法表示虹膜纹理图案,通过词汇树(vocabulary tree,VT)和局部约束线性编码(locality-constrained linear coding,LLC)区分真假虹膜图像。Daugman(2004)提出一种仅限于检测印刷虹膜的方法,通过分析频率特性区分真假虹膜图像。He等人(2007)提出通过统计纹理特征的方法检测假虹膜图像,其中灰度共生矩阵(gray-level co-occurrence matrix,GLCM)(He等人,2008)和支持向量机(support vector machine,SVM)用于识别假虹膜样本,但在辨别虹膜纹理的细微差异以及高质量人工虹膜制品时仍具有局限性。He等人(2009)提出的LBP(local binary pattern)也是基于手工制作特征的方法。上述这些基于手工制作特征区分真假虹膜图像的方法在捕捉真实虹膜和假体虹膜纹理之间的细微差别方面都有所欠缺,逐渐由基于深度特征的方法取代。

1.2 基于深度特征的方法

深度网络不仅提取的虹膜图像的深度特征更为细致,而且可以检测多类假体虹膜。Menotti等人(2015)首次采用深度学习自动提取虹膜特征,直接从虹膜图像中提取语义和视觉特征,无需归一化即可区分真实虹膜和印刷虹膜,但仅适用于检测印刷虹膜。He等人(2016)提出一种多patch卷积神经网络(multi-patch convolution neural network,MCNN),首先学习每个虹膜patch的原始像素与标签之间的映射函数,然后将各个patch的输出在决策层中融合,根据融合结果确定输入的虹膜图像是真实虹膜还是假体虹膜,但没有考虑不同假体虹膜的各种特征。Chen和Ross(2018)受物体检测方法的启发,提出一种多任务卷积神经网络解决呈现攻击检测(multi task for presentation attack detection,MT-PAD),可直接回归虹膜边界框的参数并同时计算输入图像为呈现攻击的概率。尽管能够同时完成两项不同任务,但在跨数据库检测印刷虹膜时准确率很低,泛化性很差。

基于深度特征的方法虽然定义了判别真假虹膜的特定模型,但没有解决虹膜活体检测的痛点,这主要表现在训练的网络不能准确检测其余未知类型的假体虹膜。而在原始灰度空间中,大量伪造虹膜与真实虹膜会发生高度重叠,相似度很高,以至于由原始数据训练的网络始终不能具有良好的泛化性。因此,本文提出一种新的方法,将原始灰度空间映射到一个可分离的灰度图像空间中,使真假虹膜样本具有各自特定的空间分布,提高检测网络的泛化性。

2 方法

2.1 概述

大多数虹膜活体检测方法热衷于对原始虹膜图像分patch,然后提取每个patch的深度特征并预测属性分数,最后将所有patch的分数融合,根据融合结果预测整幅虹膜图像的真假属性,这样的做法虽然可以提取更细微的深度特征,但是网络检测未知类型的伪造虹膜时分类精度很低,不能呈现良好的泛化性。究其根本,是在原始灰度空间中真假虹膜的特征分布会产生大量重叠,完全不可分。因此,需要找到一个空间映射网络,将原始灰度空间映射到一个可分离的灰度空间,使真假虹膜的特征分布在新灰度空间中可以明显区分(图 2),这样的空间映射操作也可以视为对原始虹膜图像进行再生成,是一种数据增强手段。此外,为了验证空间映射法解决虹膜活体检测问题的必要性,宜采用预训练网络作为特征提取器,不参与参数更新,即可验证空间映射的性能。由于在可分离的灰度图像空间中的真假虹膜特征具有明显差异,故可利用特征相似度进行分类,设计三元组损失函数和softmax损失函数训练分类网络。整个算法框架如图 3所示,由于特征提取是权重共享的,因此将特征提取器合并为一个通道。

图 3 具有增强型灰度空间生成器的三元组网络流程
Fig. 3 The flowchart of triplet network with enhanced gray-level space generator

2.2 增强型灰度空间生成器与特征提取器

为了映射原始灰度空间,利用以残差网络为主体结构的增强型灰度空间生成器(图 4)输出单通道的卷积特征图。首先,对给定虹膜数据库中的虹膜图像进行卷积。由于残差网络输入维度默认为3维,而虹膜图像只是1维灰度图,因此在使用残差网络之前做一次卷积,将1维输入转换为3维。再由主体结构处理,先后通过卷积层和ReLU层,滤波器大小为3 × 3 × 3 × 64。然后产生的特征图通过5个堆叠的残差块,对于每个残差块,采用跳跃连接将输入加到输出的方式。最后,生成的特征图通过滤波器大小为3 × 3 × 64 × 3的卷积层,又得到3维特征图,再对这些3维特征图做一次卷积,将3维输出还原为1维。增强型灰度空间生成器用于找到一个空间映射函数,该函数能够最小化类内距离,最大化类间距离并在真假虹膜样本之间保持安全边际(Li等,2018)。

图 4 增强型灰度空间生成器的网络结构
Fig. 4 The architecture of enhanced gray-level space generator

将可分离的灰度图像空间映射到特征空间时,由于使用小规模虹膜数据库训练模型,宜采用更轻的CNN结构提取虹膜图像的深度特征。然而,原始灰度虹膜图像非常不易区分真假,仅采用轻量级CNN网络提取原始灰度虹膜图像的深度特征并预测标签,分类性能很差,因此要在特征提取器前加入增强型灰度空间生成器,增强真假虹膜图像的特征差异性,从而提高网络的分类性能。为了凸显增强型灰度空间的性能,采用预训练网络作为特征提取器,该部分网络参数固定不变。LightCNN(light CNN)-4网络(Zhang等,2018)具有4个卷积层和2个全连接层,可采用预训练该网络提取可分离灰度空间中的虹膜图像的全局特征。由于Goodfellow等人(2013)的研究已经证明maxout激活函数比一般的ReLU激活函数更高效,因此使用maxout单元作为更有效的激活函数来提取更紧密更具判别性的虹膜深度特征。

2.3 损失函数

三元组网络包括真实虹膜样本、假体虹膜样本和中心锚虹膜样本3种输入,如图 3所示。为了不影响网络训练的稳定性,采取点到中心三元组组合机制选取这3种特定的输入(Li等,2018)。

首先,定义一个中心锚输入,然后与其他两种输入组合。用${\mathit{\boldsymbol{A}}^ + }$={$a_1^ +$, …, $a_m^ +$}和${\mathit{\boldsymbol{A}}^ - }$={$a_1^ -$, …, $a_n^ - $}表示真、假虹膜样本集,其中$m$$n$分别为${\mathit{\boldsymbol{A}}^ + }$${\mathit{\boldsymbol{A}}^ - }$中的真、假虹膜样本数量。将所有原始灰度虹膜图像映射到新的增强型灰度空间中,并在新空间进行特征提取,用${\mathit{\boldsymbol{F}}^ + }$={$f_1^ +, \cdots, f_m^ + $}和${\mathit{\boldsymbol{F}}^ - }$={$f_1^ -, \cdots, f_n^ - $}分别表示${\mathit{\boldsymbol{A}}^ + }$${\mathit{\boldsymbol{A}}^ - }$特征集。其中正样本特征集${\mathit{\boldsymbol{F}}^ + }$的平均值为$\overline {{f^ + }} = \frac{1}{m}\sum\limits_{j = 1}^m {f_j^ + } $。从${\mathit{\boldsymbol{F}}^ + }$中找到特征点$f_i^ + $,满足$f_i^ + $$\overline {{f^ + }} $之间的欧氏距离最短,则此时$f_i^ + $对应的${\mathit{\boldsymbol{A}}^ + }$中的正样本$a_i^ +$即为中心锚输入$a_c^ +$。其次,给定一个阈值$\tau $$\tau $是所有真样本与中央锚样本之间的平均欧氏距离。如果样本$a_s^ +$$a_{\rm{c}}^ + $之间的欧氏距离大于$\tau $,那么$a_s^ +$即为真样本输入;如果样本$a_s^ - $$a_{\rm{c}}^ + $之间的欧氏距离小于$\tau $,那么$a_s^ - $即为假样本输入。由此可得三元组训练样本组合{$a_s^ +$, $a_{\rm{c}}^ + $, $a_s^ - $}$_{s = 1}^S$,其中$s$是每幅虹膜图像的索引,$S$是三元组的数量。

三元组损失函数的目标是最小化$a_s^ +$$a_{\rm{c}}^ + $之间的类内距离,最大化$a_s^ - $$a_{\rm{c}}^ + $之间的类间距离,并在$a_s^ - $$a_{\rm{c}}^ + $之间保持安全边际,从而学习${\mathit{\boldsymbol{A}}^ + }$${\mathit{\boldsymbol{A}}^ - }$各自特定的分布。因此将三元组损失函数表示为

$ \begin{array}{*{20}{c}} {{L_T} = \frac{1}{S}\sum\limits_{s = 1}^S {\max } \left\{ {d\left({{a_s}, {P_1}, {P_2}} \right), \gamma } \right\} = }\\ {\frac{1}{S}\sum\limits_{s = 1}^S {\max } \left\{ {{{\left\| {\begin{array}{*{20}{c}} {\mathit{\Phi }\left({G\left({a_{\rm{c}}^{\rm{ + }}, {P_1}} \right), {P_2}} \right) - }\\ {\mathit{\Phi }\left({G\left({a_s^ +, {P_1}} \right), {P_2}} \right)} \end{array}} \right\|}^2} - } \right.}\\ {\left. {{{\left\| {\mathit{\Phi }\left({G\left({a_{\rm{c}}^ +, {P_1}} \right), {P_2}} \right) - \mathit{\Phi }\left({G\left({a_s^ -, {P_1}} \right), {P_2}} \right)} \right\|}^2}, \gamma } \right\}} \end{array} $ (1)

式中,$d$(${a_{s}}$, ${P_{1}}$, ${P_{2}}$)表示{$a_s^ +$, $a_{\rm{c}}^ + $}与{$a_s^ - $, $a_{\rm{c}}^ + $}之间的距离差,$\gamma $表示安全边际,$G$表示生成器的映射函数,${P_{1}}$, ${P_{2}}$分别表示增强型灰度空间生成器和特征提取器的参数,$\mathit{\Phi }$表示将增强型灰度图像空间映射到特征空间的可微函数。

三元组损失函数仅针对局部样本,训练模型时收敛速度慢,为此,结合softmax损失函数训练二分类模型,提供一个全局分类的界面,提升模型训练时的收敛速度。然而,如果仅使用softmax损失函数训练二分类模型,在数据量有限的情况下,容易产生过拟合现象,此时结合三元组损失函数会有效地缓解过拟合问题。因此,将三元组损失函数${L_{T}}$与softmax损失函数${L_{C}}$相结合共同训练二分类模型。softmax损失函数${L_{C}}$可表示为

$ \begin{array}{*{20}{c}} {{L_C}\left({x, {y_s}} \right) = - \frac{1}{S}\sum\limits_{s = 1}^s {{y_s}} \log {P_s} = }\\ { - \frac{1}{S}\sum\limits_{s = 1}^S {{y_s}} \log \frac{{{{\rm{e}}^{\left({W_{{y_\mathit{\boldsymbol{s}}}}^{\rm{T}}{\mathit{\boldsymbol{x}}_s} + {b_{{y_s}}}} \right)}}}}{{\sum\limits_{j = 1}^N {{{\rm{e}}^{\left({W_j^{\rm{T}}{\mathit{\boldsymbol{x}}_j} + {b_j}} \right)}}} }}} \end{array} $ (2)

式中,${y_{s}}$∈{0, 1}表示样本实际标签,${y_{s}}$=1时为真样本,${y_{s}}$=0时为假样本, ${W_{{y_\mathit{\boldsymbol{s}}}}^{\rm{T}}}$${W_j^{\rm{T}}}$为系数矩阵,也称为权值。${{\mathit{\boldsymbol{x}}_s}}$${{\mathit{\boldsymbol{x}}_j}}$为输入向量,而特征${{b_{{y_s}}}}$${b_{j}}$为偏置量。${P_{s}}$为两种类别的离散概率分布。最终训练二分类模型的损失函数为

$ L = \lambda {L_T} + (1 - \lambda){L_C} $ (3)

表 1是使用不同损失函数训练同样的二分类模型迭代一次需要的时间。可以看出,仅使用三元组损失函数训练模型最耗费时间,而结合softmax损失函数共同训练模型,模型收敛时间明显下降,即softmax损失函数起到了提升模型收敛速度的作用。

表 1 不同损失函数训练分类模型收敛时间
Table 1 Convergence time for training classification model with different loss functions 

下载CSV
/s
损失函数训练模型收敛时间
三元组损失166.5
三元组损失+ softmax损失153.2

3 实验

为了评估所提算法在不同条件下的检测性能,在ND-Contact(Doyle等,2013)、CRIPAC-Printed-Iris和CASIA-Iris-Fake(Sun等,2014)数据库上进行定量实验,并与HMC(Yan等,2018)、Iris + Ocular(Hoffman等,2018)、MCNN(He等,2016)和MT-PAD(Chen和Ross,2018)4种方法进行比较。其中,ND-Contact和CRIPAC-Printed-Iris是两个单源假虹膜数据库,数据库内仅含有一种假虹膜类型,用于检验提出算法的分类准确性。CASIA-Iris-Fake属于多源假虹膜数据库,用于验证提出算法检测未知类型假体虹膜的泛化性。3个数据库的详细信息如表 2所示。

表 2 ND-Contact、CRIPAC-Printed-Iris和CASIA-Iris-Fake数据库的详细信息
Table 2 Details of ND-Contact, CRIPAC-Printed-Iris and CASIA-Iris-Fake databases 

下载CSV
/幅
数据库设备虹膜图像真实虹膜图像隐形虹膜图像塑料虹膜图像印刷虹膜图像合成虹膜图像
ND-Contact(Doyle等,2013)LG 40004 2002 8001 400---
CRIPAC-Printed-IrisUSB光圈50 00025 000--25 000-
CASIA-Iris-Fake(Sun等,2014)IG-H10010 9706 0007406406402 950
注:“-”表示数据库中不包括此项内容。

3.1 数据库

ND-Contact(notre dame cosmetic contact lenses)(Doyle等,2013)是当前最大的一个已公开的含有戴彩色隐形眼镜的虹膜图像数据库,包含戴软性隐形眼镜和彩色隐形眼镜的虹膜图像。值得注意的是,通过软性隐形眼镜仍然可以看到真实虹膜纹理,因此无隐形眼镜和戴软性隐形眼镜的虹膜图像都被视为真样本,戴彩色隐形眼镜的虹膜图像被视为假样本。ND-Contact数据库包含4 200幅虹膜图像,其中真实虹膜样本2 800幅,戴彩色隐形眼镜的假虹膜样本1 400幅,所有虹膜图像均由LG 4000光圈传感器捕获,分辨率为640 × 480像素。ND-Contact数据库中的真假虹膜样本如图 5所示。

图 5 ND-Contact数据库的虹膜样本
Fig. 5 Iris samples from ND-Contact database ((a) no contact lenses; (b) soft contact lenses; (c) cosmetic contact lenses)

CRIPAC-Printed-Iris是真假虹膜图像数据库,包含25 000幅真实虹膜图像和25 000幅印刷虹膜图像,所有图像由USB光圈设备捕获,分辨率为640×480像素。CRIPAC-Printed-Iris数据库中的真实与印刷虹膜图像如图 6所示。

图 6 CRIPAC-Printed-Iris数据库的虹膜示例
Fig. 6 Iris examples in CRIPAC-Printed-Iris database ((a) the genuine iris images; (b) the printed iris images)

CASIA-Iris-Fake(Sun等,2014)是多源数据库,包含10 970幅虹膜图像,其中真实虹膜图像6 000幅、印刷虹膜图像640幅、戴彩色隐形眼镜的虹膜图像740幅、塑料虹膜图像(塑料眼球模型)640幅、合成虹膜图像(GAN图像生成技术)2 950幅,所有图像均由IG-H100设备捕获。真实虹膜与戴彩色隐形眼镜的虹膜图像分辨率为640 × 480像素,塑料虹膜图像分辨率为275 × 275像素,印刷虹膜图像分辨率为377 × 377像素,合成虹膜为归一化图像,分辨率为512 × 80像素。CASIA-Iris-Fake数据库中的真假虹膜样本如图 7所示。

图 7 CASIA-Iris-Fake数据库的虹膜样本
Fig. 7 Iris samples from CASIA-Iris-Fake database ((a) genuine iris images; (b) contact lens iris images; (c) plastic iris images; (d) printed iris images)

3.2 实施细节

由于采集到的初始人眼图像包含眼周、巩膜、虹膜以及瞳孔等区域,而实验仅需要虹膜信息,因此需要对初始人眼图像进行预处理。预处理主要包括虹膜检测、定位、分割以及归一化,最终得到分辨率为512 × 80像素的归一化虹膜图像。然而如果直接将这些矩形图像作为模型输入,会导致短边缘的信息被后卷积层上的方形滤波器忽略,因为对于CNN模型而言,输入的正方形图像要优于矩形图像,所以将归一化的虹膜图像调整为残差网络默认的输入图像尺寸224 × 224像素。之后各阶段所有输入图像均为224 × 224像素的归一化虹膜图像。

在训练阶段,采用随机梯度下降算法(stochastic gradient descent,SGD)更新模型参数,迭代次数为80次。对于增强型灰度空间生成器中的参数$P_1$,参考He等人(2015)Li等人(2018)提出的方法,对这些参数进行初始化,具体为

$ {P_1} = \frac{{rand\left({{n_{cl}}} \right)}}{{\sqrt {\frac{2}{{{n_{cl}}}}} }} $ (4)

式中,$rand$(·)服从零均值高斯分布,${{n_{cl}}}$表示卷积层中输入的通道数。对于特征提取器中的参数$P$2,只需使用预训练LightCNN-4网络对其进行初始化。此外,将momentum和weight decay分别设定为0.9和0.000 1。学习率在开始时设置为0.000 1,如果初始学习率过大,则模型在训练过程中难以收敛。最后,损失函数中的超参数$\gamma $$\lambda $根据经验调整为0.1和0.8左右。由于虹膜数据量十分有限,$\gamma $值过大会使模型训练期间发生过拟合现象,而由于三元组损失函数针对局部样本而使模型收敛速度下降,因此$\lambda $值会偏大。

3.3 单源假虹膜数据库闭集检测

在单源假虹膜数据库ND-Contact(Doyle等,2013)和CRIPAC-Printed-Iris上进行实验,评估所提算法的分类性能,并与HMC(Yan等,2018)、Iris + Ocular(Hoffman等,2018)、MCNN(He等,2016)和MT-PAD(Chen和Ross,2018)算法进行比较。ND-Contact数据库仅含有真实和戴彩色隐形眼镜虹膜样本,CRIPAC-Printed-Iris仅包含真实和印刷虹膜样本。

所有实验均确保各自数据库中不包含来自同一个人的虹膜图像。对于这两个数据库,各自随机选取2 500幅虹膜图像用于模型训练,其中1 500幅真样本和1 000幅假样本。再从各自剩余数据库中随机选取600幅真样本和400幅假样本用于模型测试。

为了验证提出算法的有效性,利用正确分类率(correct classification rate,CCR)、拒识率(false rejection rate,FRR)、误识率(false acceptance rate,FAR)衡量算法的分类性能。CCR是虹膜图像正确分类的比率(“真实”或“假体”)。FRR是真实虹膜图像错误分类的比率(“真实”分类为“假体”)。FAR是假体虹膜图像错误分类的比率(“假体”分类为“真实”)。

实验结果如表 3所示。显然,提出的具有增强型灰度空间生成器的三元组网络在两个数据库上的分类性能均优于其他算法。所提算法在ND-Contact数据库上的分类准确率达到100%,与HMC和MCNN算法相等,高于Iris + Ocular和MT-PAD算法。在CRIPAC-Printed-Iris数据库上的分类准确率为99.75%,高于对比的4种算法。同时,所提算法具有最低的分类误识率与拒识率。实验表明,本文算法能够充分辨别真实虹膜与假体虹膜的深度特征差异,且最小化类内距离,最大化类间距离,并在真假虹膜样本之间保持安全边际,从而使分类性能最佳。

表 3 虹膜活体检测方法在单源假虹膜数据库上的分类性能
Table 3 Classification performance of iris liveness detection methods on single pattern fake iris databases 

下载CSV
/%
方法ND-Contact数据库CRIPAC-Printed-Iris数据库
准确率拒识率误识率准确率拒识率误识率
HMC(Yan等,2018)1000099.340.271.16
Iris + Ocular(Hoffman等,2018)99.260.620.1397.880.473.75
MCNN(He等,2016)1000098.140.372.83
MT-PAD(Chen和Ross,2018)99.580.500.2598.930.312.11
本文1000099.750.150.84
注:加粗字体表示各列最优结果。

3.4 多源假虹膜数据库开集检测

多数的虹膜活体检测任务是在闭集情况下进行的,即训练集与测试集含有相同类型的假体虹膜样本。为了验证所提方法的泛化性,在多源假虹膜数据库CASIA-Iris-Fake(Sun等,2014)上进行开集虹膜活体检测实验,即令训练集含有的假体虹膜类型与测试集不同。例如,用包含真实虹膜和合成虹膜图像的数据集训练模型,再由含有真实虹膜和印刷虹膜图像的数据集测试模型检测性能,在这种情况下,如果最终的分类准确率较低,则意味着模型不能很好地辨识没有经验的数据类型。直观地,如图 8所示,如果模型分类情况诸如虚线(分类1),说明模型泛化性差,在涉及未知的假虹膜类型时,模型不能准确辨识真假样本间的差异。相反,如果最终的分类准确率很高,说明模型的性能很可能类似于图 8中的实线(分类2)。虽然训练集和测试集中的假虹膜类型不一致,但网络只需要学习特定真实虹膜的特征,则其他与之具有较大差异的特征即可预测为假虹膜,这样也可以验证网络的泛化性。

图 8 训练集和测试集数据类型分布不同
Fig. 8 Non-identically distribution for type of data between training set and testing set

用于跨类型检测的数据集详细信息如下:1)对于单源假虹膜交叉检测,随机设定训练集与测试集的假体虹膜类型。训练集包括2 500幅虹膜图像,其中真实虹膜图像1 500幅、合成虹膜图像1 000幅;测试集包含真实虹膜图像600幅、戴彩色隐形眼镜图像400幅。2)对于多源假虹膜交叉检测,训练集与测试集的假体虹膜类型亦为随机搭配。训练集包含2 500幅虹膜图像,其中真实虹膜图像1 500幅、戴彩色隐形眼镜图像500幅、印刷虹膜图像500幅; 测试集包含真实虹膜图像600幅、塑料虹膜图像200幅、合成虹膜图像200幅。实验结果如表 4所示。

表 4 虹膜活体检测方法在多源假虹膜数据库上的分类性能
Table 4 Classification performance of iris liveness detection methods on the hybrid pattern fake iris database 

下载CSV
/%
方法单源假虹膜交叉检测多源假虹膜交叉检测
准确率拒识率误识率准确率拒识率误识率
HMC(Yan等,2018)83.6515.4012.4284.1214.7811.35
Iris + Ocular(Hoffman等,2018)88.7017.272.5386.5316.848.16
MCNN(He等,2016)85.7113.6112.2883.8114.9613.37
MT-PAD(Chen和Ross,2018)87.2117.543.8788.7510.667.25
本文98.940.181.6699.060.171.13
注:加粗字体表示各列最优结果。

表 4可以看出,提出的具有增强型灰度空间生成器的三元组网络的分类性能优于HMC、Iris+Ocular、MCNN和MT-PAD算法,表明增强型灰度空间中的虹膜特征相比于原始灰度空间更具判别性,因此可以很好地区分真实虹膜与不同类型的假体虹膜。此外,随着假虹膜类型的增加,模型分类精度也在上升,表明当假虹膜类型增加时,在增强型灰度空间中的真实虹膜与各类假体虹膜的特征差异性更加明显,继而网络更容易辨别特定的真实虹膜深度特征,使网络具有更强的泛化性。

3.5 消融实验

虽然本文方法的检测性能优于其他方法,但仍然需要验证所提模型的各部分机制对模型检测性能的影响。为此,在ND-Contact和CRIPAC-Printed-Iris数据库上分别研究增强型灰度空间生成器和结合两种损失函数共同训练模型对虹膜呈现攻击检测的性能影响。实验按以下顺序依次进行:

1) 采用LightCNN-4网络提取原始灰度虹膜图像特征,并用三元组损失函数从网络初始化状态开始训练,实现分类任务。此模型称为预训练baseline模型。

2) 在预训练baseline模型中加入softmax损失函数重新训练模型并分类,由此验证softmax损失函数在提升模型收敛速度的同时是否可以提升模型检测性能。

3) 在预训练baseline模型中添加增强型灰度空间生成器再次重新训练模型并分类,此时baseline网络不参与参数更新,由此验证增强型灰度空间中的真假虹膜图像是否具有更明显的差异。

4) 将增强型灰度空间生成器和softmax损失函数同时嵌入预训练baseline模型中重新训练并分类,验证两种机制对模型检测性能的双重影响。

在消融研究实验中,使用1 500幅真实样本图像和1 000幅假体样本图像作为训练集,使用600幅真实样本图像和400幅假体样本图像作为测试集。实验结果如表 5所示。

表 5 不同机制模型在ND-Contact和CRIPAC-Printed-Iris数据库上的检测性能
Table 5 The detection performance of model under different mechanisms on ND-Contact and CRIPAC-Printed-Iris databases 

下载CSV
/%
方法ND-Contact数据库CRIPAC-Printed-Iris数据库
准确率拒识率误识率准确率拒识率误识率
baseline82.2015.9812.0781.4717.8514.82
softmax loss84.9114.6911.3384.8513.7112.91
增强型灰度图像空间生成器97.231.814.0496.722.724.93
本文1000099.750.150.84
注:加粗字体表示各列最优结果。

表 5可以看出,在ND-Contact和CRIPAC-Printed-Iris数据库上,结合两种损失函数训练模型或增强型灰度空间生成器均提升了系统检测假体虹膜的性能,且增强型灰度空间生成器提升系统检测性能的能力明显比softmax损失函数更强。在没有softmax损失函数的情况下,系统在可分离的灰度图像空间中区分真假虹膜样本的性能优于原始灰度空间,说明增强型灰度空间中的虹膜特征更具有判别性。另外,结合softmax损失函数训练模型不仅提高模型的收敛速度,同时提升系统的检测性能。将softmax损失函数和增强型灰度空间生成器一同嵌入到模型中可以极大地提升系统检测虹膜呈现攻击的性能。

3.6 增强型灰度图像空间可视化

定量实验结果表明,本文方法在ND-Contact、CRIPAC-Printed-Iris和CASIA-Iris-Fake数据库上的检测性能与其他方法相比,都达到了最优结果,这是由于增强型灰度空间中的真假样本间虹膜纹理深度特征更具有差异性。通过观察上述数据库在增强型灰度图像空间中的可视化结果,可以更直观地从定性角度分析真假虹膜样本在这种可分离的灰度图像空间中具有的特征差异。

图 9-图 11是ND-Contact、CRIPAC-Printed-Iris和CASIA-Iris-Fake数据库中的初始人眼图像与归一化虹膜图像在增强型灰度空间中的可视化结果。可以看出,初始人眼图像和归一化虹膜图像在可分离的增强型灰度空间中,真实虹膜样本图像的纹理清晰度明显强于假体虹膜样本图像,表明增强型灰度空间中真假虹膜图像之间的特征差异比原始灰度空间中的特征差异更强。可以推断,在增强型灰度空间中放大了真假虹膜图像之间清晰度的差异,即在增强型灰度空间中更易通过虹膜纹理的深度特征差异区分真假虹膜样本,解决了在原始灰度空间中真假虹膜样本不易区分的问题。

图 9 ND-Contact数据库中的初始人眼图像与归一化虹膜图像在增强型灰度空间中的可视化结果
Fig. 9 Visualization results of original human eyes images and normalization iris images on ND-Contact database in enhanced gray-level image space ((a) original human eyes images; (b) normalization iris images)
图 10 CRIPAC-Printed-Iris数据库中的初始人眼图像与归一化虹膜图像在增强型灰度空间中的可视化结果
Fig. 10 Visualization results of original human eyes images and normalization iris images on CRIPAC-Printed-Iris database in enhanced gray-level image space ((a) original human eyes images; (b) normalization iris images)
图 11 CASIA-Iris-Fake数据库中的初始人眼图像与归一化虹膜图像在增强型灰度空间中的可视化结果
Fig. 11 Visualization results of original human eyes images and normalization iris images on CASIA-Iris-Fake database in enhanced gray-level image space ((a) original human eyes images; (b) normalization iris images)

需要注意的是,所有定量实验均使用归一化虹膜图像完成,保证所有实验仅采用虹膜区域信息。而本节实验展示了初始人眼图像与归一化虹膜图像在增强型灰度空间中的可视化结果,清晰表明在可分离的灰度图像空间中真假虹膜的深度纹理特征具有明显差异,新空间中的初始人眼图像仅观察虹膜区域纹理即可。此外,采用特征提取器提取真假虹膜样本在原始灰度空间和增强型灰度空间中的深度特征。图 12-图 17是ND-Contact、CRIPAC-Printed-Iris和CASIA-Iris-Fake数据库的真假虹膜样本在不同灰度图像空间中的特征分布图,图中横、纵坐标均代表 2D空间内虹膜样本之间的距离度量值。可以看出,真假虹膜样本在不同的2D空间中呈现出不同的特征分布。在原始灰度空间中,真实虹膜样本与各类假虹膜样本的分布大量重叠在一起,十分不易区分。而在增强型灰度空间中,大部分真假虹膜样本具有各自特定的分布,两类样本明显分开,使检测网络可以准确辨别真实虹膜和各种未知类型的假体虹膜。

图 12 ND-Contact数据库中的真假虹膜样本在原始灰度空间和增强型灰度空间的特征分布
Fig. 12 Feature distributions of samples of genuine and fake iris on ND-Contact database in the original gray-scaled space and enhanced gray-level space ((a) original gray-scaled space; (b) enhanced gray-level space)
图 13 CRIPAC-Printed-Iris数据库中的真假虹膜样本在原始灰度空间和增强型灰度空间的特征分布
Fig. 13 Feature distributions of samples of genuine and fake iris on CRIPAC-Printed-Iris database in the original gray-scaled space and enhanced gray-level space ((a) original gray-scaled space; (b) enhanced gray-level space)
图 14 CASIA-Iris-Fake数据库中的真实与戴彩色隐形眼镜的假体虹膜样本在原始灰度空间和增强型灰度空间的特征分布
Fig. 14 Feature distributions of samples of genuine iris and fake iris wearing cosmetic contact lens on CASIA-Iris-Fake database in the original gray-scaled space and enhanced gray-level space ((a) original gray-scaled space; (b) enhanced gray-level space)
图 15 CASIA-Iris-Fake数据库中的真实与塑料虹膜样本在原始灰度空间和增强型灰度空间的特征分布
Fig. 15 Feature distributions of samples of genuine iris and plastic iris on CASIA-Iris-Fake database in the original gray-scaled space and enhanced gray-level space ((a) original gray-scaled space; (b) enhanced gray-level space)
图 16 CASIA-Iris-Fake数据库中的真实与印刷虹膜样本在原始灰度空间和增强型灰度空间的特征分布
Fig. 16 Feature distributions of samples of genuine iris and printed iris on CASIA-Iris-Fake database in the original gray-scaled space and enhanced gray-level space ((a) original gray-scaled space; (b) enhanced gray-level space)
图 17 CASIA-Iris-Fake数据库中的真实与合成虹膜样本在原始灰度空间和增强型灰度空间的特征分布
Fig. 17 Feature distributions of samples of genuine iris and synthetic iris on CASIA-Iris-Fake database in the original gray-scaled space and enhanced gray-level space ((a) original gray-scaled space; (b) enhanced gray-level space)

4 结论

本文提出的含有增强型灰度空间生成器的三元组网络可有效解决虹膜活体检测的开集分类问题,该方法利用训练数据学习了增强型灰度图像空间,在新空间真假虹膜特征差异明显,克服了传统方法在原始灰度空间中真假虹膜图像不易区分的局限性,提升了网络检测未知类型的假体虹膜的准确率,即提升了网络的泛化性。同时设计了三元组损失函数与softmax损失函数共同训练二分类模型,一方面利用三元组损失函数增加正负样本集之间的距离差,可学习正负样本集各自的特定分布,从而更有利于真假虹膜样本的分类。另一方面考虑到三元组损失函数仅针对局部样本,训练模型时收敛速度慢,为了弥补该缺陷,再结合softmax损失函数训练分类模型,提供一个全局分类的界面,增加模型训练时的收敛速度。同时三元组损失函数也可缓解softmax损失函数训练模型时产生的过拟合现象。

本文方法首次利用空间分析与变换的方式解决真假虹膜样本的分类问题,在单源和多源假虹膜数据库上的实验表明,通过可分离的增强型灰度图像空间解决虹膜活体检测问题具有明显的有效性与可行性,真实虹膜与多类假体虹膜在增强型灰度图像空间中具有明显的特征差异。在传统的基于原始灰度空间的虹膜活体检测方法中,一种深度网络通常只能判别一种假体虹膜与真实虹膜的特征差异,而在增强型灰度图像空间中,真实虹膜与多种假体虹膜同时存在明显差异,因而含有增强型灰度空间生成器的三元组网络可检测特定真实虹膜样本特征,从而区别于其他各类或未知类型的假体虹膜样本特征,使网络具有很强的泛化性。此外,建立了一个新的真假虹膜图像数据库CRIPAC-Printed-Iris,在今后的研究中会考虑扩大数据库的图像数量,并采集更多的假体虹膜种类,研究准确性更高、泛化性更强的虹膜活体检测算法。

参考文献

  • Baker S E, Hentz A, Bowyer K W, Flynn P J. 2010. Degradation of iris recognition performance due to non-cosmetic prescription contact lenses. Computer Vision and Image Understanding, 114(9): 1030-1044 [DOI:10.1016/j.cviu.2010.06.002]
  • Chen C J and Ross A. 2018. A multi-task convolutional neural network for joint iris detection and presentation attack detection//Proceedings of 2018 IEEE Winter Applications of Computer Vision Workshops (WACVW). Lake Tahoe, NV, USA: IEEE: 44-51[DOI: 10.1109/WACVW.2018.00011]
  • Daugman J. 2004. How iris recognition works. IEEE Transactions on Circuits and Systems for Video Technology, 14(1): 21-30 [DOI:10.1109/TCSVT.2003.818350]
  • Doyle J S, Bowyer K W and Flynn P J. 2013. Variation in accuracy of textured contact lens detection based on sensor and lens pattern//Proceedings of the 6th IEEE International Conference on Biometrics: Theory, Applications and Systems (BTAS). Arlington, VA, USA: IEEE: 1-7[DOI: 10.1109/BTAS.2013.6712745]
  • Goodfellow I J, Warde-Farley D, Mirza M, Courville A and Bengio Y. 2013. Maxout networks[EB/OL].[2019-10-01]. https://arxiv.org/pdf/1302.4389.pdf
  • Gupta P, Behera S, Vatsa M and Singh R. 2014. On iris spoofing using print attack//Proceedings of the 22nd International Conference on Pattern Recognition. Stockholm, Sweden: IEEE: 1681-1686[DOI: 10.1109/ICPR.2014.296]
  • He K M, Zhang X Y, Ren S Q and Sun J. 2015. Delving deep into rectifiers: surpassing human-level performance on imagenet classification//Proceedings of 2015 IEEE International Conference on Computer Vision. Santiago, Chile: IEEE: 1026-1034[DOI: 10.1109/ICCV.2015.123]
  • He L X, Li H Q, Liu F, Liu N F, Sun Z N and He Z F. 2016. Multi-patch convolution neural network for iris liveness detection//Proceedings of the 8th IEEE International Conference on Biometrics Theory, Applications and Systems. Niagara Falls, NY, USA: IEEE: 1-7[DOI: 10.1109/BTAS.2016.7791186]
  • He X F, An S J and Shi P F. 2007. Statistical texture analysis-based approach for fake iris detection using support vector machines//Proceedings of the International Conference on Advances in Biometrics. Seoul, Korea: Springer: 540-546[DOI: 10.1007/978-3-540-74549-5_57]
  • He X F, Lu Y and Shi P F. 2008. A fake iris detection method based on FFT and quality assessment//Proceedings of 2008 Chinese Conference on Pattern Recognition. Beijing, China: IEEE: 1-4[DOI: 10.1109/CCPR.2008.68]
  • He Z F, Sun Z N, Tan T N and Wei Z S. 2009. Efficient iris spoof detection via boosted local binary patterns//Proceedings of the 3rd International Conference on Advances in Biometrics. Alghero, Italy: Springer: 1080-1090[DOI: 10.1007/978-3-642-01793-3_109]
  • Hoffman S, Sharma R and Ross A. 2018. Convolutional neural networks for iris presentation attack detection: toward cross-dataset and cross-sensor generalization//Proceedings of 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW). Salt Lake City, UT, USA: IEEE: 1701-17018[DOI: 10.1109/CVPRW.2018.00213]
  • Kohli N, Yadav D, Vatsa M, Singh R and Noore A. 2016. Detecting medley of iris spoofing attacks using DESIST//Proceedings of the 8th IEEE International Conference on Biometrics Theory, Applications and Systems. Niagara Falls, NY, USA: IEEE: 1-6[DOI: 10.1109/BTAS.2016.7791168]
  • Kohli N, Yadav D, Vatsa M, Singh R and Noore A. 2017. Synthetic iris presentation attack using iDCGAN//Proceedings of 2017 IEEE International Joint Conference on Biometrics. Denver, CO, USA: IEEE: 674-680[DOI: 10.1109/BTAS.2017.8272756]
  • Li L, Xia Z Q, Hadid A, Jiang X Y, Roli F and Feng X Y. 2018. Face presentation attack detection in learned color-liked space[EB/OL].[2019-10-01]. https://arxiv.org/pdf/1810.13170.pdf
  • Menotti D, Chiachia G, Pinto A, Schwartz W R, Pedrini H, Falcão A X and Rocha A. 2015. Deep representations for iris, face, and fingerprint spoofing detection. IEEE Transactions on Information Forensics and Security, 10(4): 864-879[DOI: 10.1109/TIFS.2015.2398817]
  • Rathgeb C and Uhl A. 2010. Attacking iris recognition: an efficient hill-climbing technique//Proceedings of the 20th International Conference on Pattern Recognition. Istanbul, Turkey: IEEE: 1217-1220[DOI: 10.1109/ICPR.2010.303]
  • Rathgeb C and Uhl A. 2011. Statistical attack against iris-biometric fuzzy commitment schemes//CVPR 2011 WORKSHOPS. Colorado Springs, CO, USA: IEEE: 23-30[DOI: 10.1109/CVPRW.2011.5981720]
  • Sun Z N and Tan T N. 2014. Institute of automation, Chinese academy of sciences, CASIA-Iris-Image-Fake database[EB/OL].[2019-10-01]. http://www.cripac.ia.ac.cn/people/znsun/irisclassification/casia-iris-fake.rar
  • Sun Z N, Zhang H, Tan T N, Wang J Y. 2014. Iris image classification based on hierarchical visual codebook. IEEE Transactions on Pattern Analysis and Machine Intelligence, 36(6): 1120-1133 [DOI:10.1109/TPAMI.2013.234]
  • Yan Z H, He L X, Zhang M, Sun Z N and Tan T N. 2018. Hierarchical multi-class iris classification for liveness detection//Proceedings of 2018 International Conference on Biometrics. Gold Coast, QLD, Australia: IEEE: 47-53[DOI: 10.1109/ICB2018.2018.00018]
  • Zhang Q, Li H Q, Sun Z N and Tan T N. 2018. Deep feature fusion for iris and periocular biometrics on mobile devices. IEEE Transactions on Information Forensics and Security, 13(11): 2897-2912[DOI: 10.1109/TIFS.2018.2833033]
  • Zuo J Y, Schmid N A and Chen X H. 2006. On performance comparison of real and synthetic iris images//Proceedings of 2016 International Conference on Image Processing. Atlanta, GA, USA: IEEE: 305-308[DOI: 10.1109/ICIP.2006.313154]