目的针对欺诈人脸中存在的光照、几何比例、运动模式等方面的全局不一致性,本文通过引入数据驱动的图拓扑信息以增强模型的结构感知能力,并借助Transformer的全局自注意力机制弥补图结构在全局信息建模上的局限,提出了一种基于Transformer图表示学习的自适应人脸欺诈检测模型,旨在提升模型捕捉全局空间中不一致欺诈线索的能力。方法该模型通过交替堆叠图神经网络(graph neural networks,GNN)与Transformer层来构建两者的互补优势,GNN通过屏蔽无关节点,将Transformer 的盲目全局注意力转变为稀疏、低秩、结构敏感;Transformer凭借长距离依赖拓展了GNN的感受野,使消息传递更远、更灵活,它们的交替堆叠使模型具有更强的关系表示能力。鉴于GNN对图拓扑结构的强依赖性,本模型应用动态K近邻稠密算法来改进邻居节点的采样方法,利用数据驱动来自适应地调整每个节点的连接性(度),提高了模型的结构表示能力。为了提高模型对关键线索的敏感性,本模型使用双重注意力机制对图中的节点和边分别进行加权,对节点的加权可以使模型重点关注携带更多判别信息的图像块,而对边的加权可以突出信息流动的关键途径。这种双重注意力机制模拟了实体及其关系之间的复杂相互作用,使模型能够专注于最突出和最具信息性的特征和联系。为了提高模型抵御新攻击的能力,本文引入改进的元学习优化策略,通过组合的KL散度损失与软目标交叉熵损失函数来促使模型快速适应新的攻击类型或新的场合。结果在MSU、Replay、OULU与CASIA的人脸活体检测跨数据集实验中,平均半总错误率(half total error rate,HTER)超过了所有对比算法;在 FF++和Celeb-DF数据集上的域内测试中Acc达到98.93%与98.44%,而在FF++、Celeb-DF与DFD的交叉评估与跨域实验中Acc与曲线下面积(area under the curve, AUC)均高于最新模型。结论本文提出的方法能够有效地捕捉并识别出欺诈样本中存在的细微欺诈线索以及全局不一致性现象,该方法在增强模型对不同数据集的泛化能力和对新环境的适应性方面尤为显著,确保了模型在多变的实际应用场景中均能达到较高的识别性能。本文数据集已在ScienceDB存档,访问链接为https://doi.org/10.57760/sciencedb.j00240.00096.
目的现有基于扩散模型的弱光图像增强方法存在计算成本高、高频特征畸变以及色彩偏移等问题,限制了其在实际场景中的应用效果。为此,本文提出一种频域特征优化与截断采样的条件扩散模型弱光图像增强方法(low-light image enhancement with diagonal frequency feature refinement and truncated sampling in conditional diffusion models)。方法该方法首先在小波低频子空间中实施扩散建模,有效降低了空间维度和计算复杂度,同时保留图像的主体结构与光照分布特征。针对高频子带中对角线方向信息较弱的问题,本文设计高频细化模块,利用水平方向与垂直方向的高频特征作为引导,通过双路径交叉注意力机制实现对角线高频纹理的补全,从而提升局部细节与纹理的清晰度。此外,提出一种高效的条件采样策略,采用特定步数截断技术,大幅减少了推理时间,同时保持增强结果的质量。为进一步提高对比度与色彩还原表现,在反向去噪过程中使用上一步采样的色彩与对比度信息调制当前采样步特征,从而实现对增强图像的对比度校正。结果在LOLv1、LOLv2-Real和VE-LOL三个配对数据集上,本文方法在定性与定量评估上均优于现有主流方法。在LOLv2-Real数据集上,PSNR和SSIM分别提升8.46%、1.22%,LPIPS和NIQE分别下降10.19%、0.38%。在四个非配对数据集上亦展现良好的跨域泛化性能,相较于基于空域扩散建模的PyDiff (pyramid diffusion models for low-light image enhancement)方法,单张图像的推理时间由7.617秒减少至0.473秒,显存占用降低48.53%。结论大量定量及定性的实验结果表明,本方法在提升图像亮度、细节和色彩保真的同时降低了推理开销,展现出良好的实用性与应用前景。代码已共享在Gitee上:https://gitee.com/cv_llie/llie_diff。
目的遥感图像定向目标检测在环境监测、城市规划等领域发挥着重要作用,基于二维高斯分布的定向边界框表示方法实现了对旋转交并比(skew intersection over union,SkewIoU)的近似计算,因此受到了广泛关注。但二维高斯分布表示方法中存在角度边界不连续问题,且对不同宽高比目标角度感知不平衡,导致定位不准确。因此,提出了一种联合角度连续表示与感知平衡的检测算法(joint angle continuous representation and perceptual balance,JCPB)。方法首先,提出角度向量分解法(angular vector decomposition method,AVDM),通过在二维空间内将角度参数分解为向量编码,使得角度在边界和非边界位置处均能连续表示。并提出形状感知系数方法,根据目标宽高比动态调整系数值,在不增加编码长度的前提下调节角度损失函数的变化周期。其次,提出角度感知平衡策略(angle perceptual balance strategy,APBS),动态调节损失权重强化模型对小宽高比目标的方向判别能力。最后,基于二维高斯分布表示方法,通过联合角度连续表示和角度感知平衡策略,增强模型对目标方向的学习能力。结果在DOTA(dataset for object detection in aerial images)、DIOR-R(dataset for object detection in aerial images)和HRSC2016(high-resolution ship collections)数据集上进行大量实验测试。结果表明,在DOTA、DIOR-R和HRSC2016数据集上,与基准方法相比,所提方法在平均精度均值(mean average precision,mAP)上平均提升分别为1.46%、1.32%和4.19%,在SkewIoU阈值为0.75时,平均精准率(average precision,AP)平均提升分别为3.32%、2.19%和6.07%,实验结果验证了所提算法的有效性。结论本文算法通过将角度参数分解为连续的向量表示,并平衡模型对不同宽高比目标的感知能力,实现了遥感图像定向目标的高精度检测。