摘要:目的随着云计算和云存储场景中用户隐私保护的需求日益增加,密文域图像可逆信息隐藏(reversible data hiding in encrytpted images,RDHEI)受到了广泛关注。然而大多数RDHEI算法以提升嵌入率和保障图像加密安全性为目的,复杂化图像的预处理操作。为此,提出一种基于可变预测和多MSB(most significant bit)替换的密文域图像可逆信息隐藏算法。方法提出可变预测位平面翻转策略,用相邻像素值迭代预测当前像素值的多位最高有效位。若预测值比翻转值更接近目标像素值,则当前预测位平面可以用于信息隐藏,将其比特值修改为0。同时,用位置图自适应地标记可嵌入像素点。所生成的位置图具有稀疏特征,可以使用算术编码无损压缩。最后,对预留空间后的图像进行加密,通过多MSB替换的策略嵌入隐秘信息和压缩位置图。结果经实验测试,本文算法在BOWS-2(break our watermarking system 2nd)数据集上平均嵌入率为2.953 bit/像素,并记录了1 000幅图像在预处理前后的每个位平面信息熵,其中最高位平面的信息熵比原始MSB下降了0.76,说明可变预测位平面翻转将多个高位平面翻转为0,使其处于稀疏状态,有效增加了嵌入空间。结论本文算法利用明文图像的空间相关性,对高位平面进行翻转与替换,从而为隐秘信息预留了更多的嵌入空间。所提方法可无损恢复原始图像,且无差错提取隐秘信息。
摘要:目的伪装目标是目标检测领域一类重要研究对象,由于目标与背景融合度较高、视觉边缘性较差、特征信息不足,常规目标检测算法容易出现漏警、虚警,且检测精度不高。针对伪装目标检测的难点,基于YOLOv5(you only look once)算法提出了一种基于多检测层与自适应权重的伪装目标检测算法(algorithm for detecting camouflage targets based on multi-detection layers and adaptive weight,MAH-YOLOv5)。方法在网络预测头部中增加一个非显著目标检测层,提升网络对于像素占比极低、语义信息不足这类目标的感知能力;在特征提取骨干中融合注意力机制,调节卷积网络对特征信息不足目标的权重配比,使其更关注待检测的伪装目标;在网络训练过程中使用多尺度训练策略,进一步提升模型鲁棒性与泛化能力;定义了用于军事目标检测领域的漏警、虚警指标,并提出伪装目标综合检测指数。结果实验在课题组采集的伪装数据集上进行训练和验证。结果表明,本文方法在自制数据集上的平均精度均值(mean average precision,mAP)达到76.64%,较YOLOv5算法提升3.89%;漏检率8.53%、虚警率仅有0.14%,较YOLOv5算法分别降低2.75%、0.56%;伪装目标综合检测能力指数高达88.17%。与其他对比算法相比,本文方法的综合检测能力指数仅次于最先进的YOLOv8等算法。结论本文方法在识别精度、漏检率等指标上均有较大改善,具有最优的综合检测能力,可为战场伪装目标的快速高精度检测识别提供技术支撑和借鉴参考。
摘要:目的受遮挡与累积误差因素的影响,现有目标6维(6 dimensions, 6D)姿态实时追踪方法在复杂场景中表现不佳。为此,提出了一种高鲁棒性的刚体目标6D姿态实时追踪网络。方法在网络的整体设计上,将当前帧彩色图像和深度图像(red green blue-depth map,RGB-D)与前一帧姿态估计结果经升维残差采样滤波和特征编码处理获得姿态差异,与前一帧姿态估计结果共同计算目标当前的6D姿态;在残差采样滤波模块的设计中,采用自门控swish(searching for activation functions)激活函数保留目标细节特征,提高目标姿态追踪的准确性;在特征聚合模块的设计中,将提取的特征分解为水平与垂直两个方向分量,分别从时间和空间上捕获长程依赖并保留位置信息,生成一组具有位置与时间感知的互补特征图,加强目标特征提取能力,从而加速网络收敛。结果实验选用YCB-Video(Yale-CMU-Berkeley-video)和YCBInEoAT(Yale-CMU-Berkeley in end-of-arm-tooling)数据集。实验结果表明,本文方法追踪速度达到90.9 Hz,追踪精度模型点平均距离(average distance of model points,ADD)和最近点的平均距离(average closest point distance,ADD-S)分别达到93.24及95.84,均高于同类相关方法。本文方法的追踪精度指标ADD和ADD-S在追踪精度和追踪速度上均领先于目前其他的刚体姿态追踪方法,与se(3)-TrackNet网络相比,本文方法在6 000组少量合成数据训练的条件下分别高出25.95和30.91,在8 000组少量合成数据训练的条件下分别高出31.72和28.75,在10 000组少量合成数据训练的条件下分别高出35.57和21.07,且在严重遮挡场景下能够实现对目标的高鲁棒6D姿态追踪。结论本文网络在合成数据驱动条件下,可以更好地完成实时准确追踪目标6D姿态,网络收敛速度快,实验结果验证了本文方法的有效性。
摘要:目的当前,基于视觉的步态识别方法多基于完整的步态序列图像。然而,现实场景拍摄下的行人难免被遮挡,以至于获取的步态图像不完整,对识别结果有很大影响。如何处理大面积遮挡是步态识别中一个具有挑战性且重要的问题。针对此,提出了一种步态时空序列重建网络(gait spatio-temporal reconstruction network,GSTRNet),用于修复被遮挡的步态序列图像。方法使用基于3D卷积神经网络和Transformer的GSTRNet来修复步态序列,在修复每一帧步态图像的空间信息的同时保持帧与帧之间的时空连贯性。GSTRNet通过引入YOLOv5(you only look once)网络来检测步态图像的局部遮挡区域,并将其作为先验知识为遮挡修复区域分配更高的修复权值,实现遮挡区域的局部修复,将局部修复步态图与原始遮挡图像进行融合,生成完整的修复步态图。同时,在GSTRNet中引入三元组特征损失和重建损失组成的联合损失函数来优化修复网络,提升修复效果。最终,以修复完整的步态序列图像为特征进行身份识别。结果本文在大规模步态数据集OU_MVLP(the OU-ISIR gait database,multi-view large population dataset)中人工合成遮挡步态序列数据来进行修复实验。结果表明,该方法在面对步态轮廓大面积遮挡时,识别准确率比现有的步态修复和遮挡识别方法有一定的提升,如在未知遮挡模式时比三元组视频生成对抗网络(sequence video wasserstein generative adversarial network based on triplet hinge loss,sVideoWGAN-hinge)最高提升6.7%,非单一模式遮挡时比Gaitset等方法识别率提高40%左右。结论本文提出的GSTRNet对各种遮挡模式下的步态图像序列有较好的修复效果,使用修复后图像进行步态识别,可有效改善识别率。
摘要:目的工业机器人视觉领域经常需要对一些由拼装、冲压或贴合等工艺造成的形变工件进行精准定位,工件的大部分特征表现出一定程度的非刚性,其他具备良好一致性的部分通常特征简单,导致一些常用的目标检测算法精度不足或鲁棒性不强,难以满足实际需求。针对这一问题,提出融合边缘与灰度特征的形变工件精准定位方法。方法第1阶段提出多归一化互相关的模板匹配MNCC(multi normalized cross correlation)方法检测形变目标,利用余弦距离下的灰度聚类获得均值模板,通过滑动窗口的方式,结合金字塔跟踪,自顶向下地优先搜索类均值模板,得到类匹配候选,然后进行类内细搜索获得最佳位置匹配。第2阶段提出一种改进的形状匹配方法T-SBM(truncated shape-based matching),通过改变原始SBM(shape-based matching)的梯度方向内积的计算方式,对负梯度极性方向截断,削弱目标背景不稳定导致局部梯度方向反转时对整体评分的负贡献,改善边缘稀疏或特征简单导致检测鲁棒性低的问题。最后提出二维高斯条件密度评价,将灰度特征、形状特征和形变量进行综合加权,获得理想目标评价,实现序贯检测。结果实验部分分别与SBM、归一化互相关匹配算法(normalized cross correlation,NCC)、LINE2D(linearizing the memory 2D)算法和YOLOv5s(you only look once version 5 small)算法在5种类型工件的472幅真实工业图像上进行了对比测试,在检出分值大于0.8(实际常用的阈值区间)时,提出算法的召回率优于其他几种测试算法;在IoU(intersection over union)阈值0.9时的平均检测准确率为81.7%,F1-Score为95%,两组指标相比其他测试算法分别至少提升了10.8%和8.3%。在平均定位精度方面,提出算法的定位偏差在IoU阈值0.9时达到了2.44像素,在5种测试算法中的表现也为最佳。结论提出了一种两阶段的定位方法,该方法适用于检测工业场景中由拼装、冲压和贴合等工艺制成的形变工件并能够进行精准定位,尤其适用于工业机器人视觉引导定位应用场景,并在实际项目中得到了应用。