最新刊期

    2017 22 2

      图像处理和编码

    • 双边滤波与暗通道结合的图像保边去雾算法

      曾接贤, 余永龙
      2017, 22(2): 147-153. DOI: 10.11834/jig.20170201
      摘要:图像去雾领域越来重视去雾过程中对图像边缘细节的恢复和保护,针对现有主流的基于模型的有雾图像复原算法,基本都是对介质透射率进行直接求解,即先预估透射率,再细化抠图,运算量很大的问题,提出利用双边滤波方式进行介质透射率的间接求解,用以简化去雾算法时间复杂度。 利用双边滤波方式对介质透射率的求解,是先估算出较精确的大气散射函数及大气光值,然后间接求出透射率,其避免了采用软件抠图的方式对介质透射率进行细化的过程,提高了算法的时效性。 选取两组户外有雾图像进行实验,并从得出的透射率图、复原效果及运算时间进行了对比分析。本文算法能得到较为清晰的透射率分布图,并且改善了预估透射率图中的块状现象;本文算法对透射率细化的同时,还起到了平滑图像边缘的效果;耗时方面,本文算法对大小为608×456像素的图像恢复耗时为1.803 s。 本文算法对有雾图像进行全局清晰化处理的同时,重点恢复有雾图像的局部细节,复原结果能更好地保持图像边缘的效果,更适合运用到基于图像检测类的系统中去。  
      关键词:图像去雾;暗通道;双边滤波;大气散射;边缘细节   
      4743
      |
      1760
      |
      9
      <HTML>
      <网络PDF><Meta-XML>
      <引用本文> <批量引用> 56112077 false
      更新时间:2024-05-07

      图像分析和识别

    • 结合MSCRs与MSERs的自然场景文本检测

      易尧华, 申春辉, 刘菊华, 卢利琼
      2017, 22(2): 154-160. DOI: 10.11834/jig.20170202
      摘要:目前,基于MSERs(maximally stable extremal regions)的文本检测方法是自然场景图像文本检测的主流方法。但是自然场景图像中部分文本的背景复杂多变,MSERs算法无法将其准确提取出来,降低了该类方法的鲁棒性。本文针对自然场景图像文本背景复杂多变的特点,将MSCRs(maximally stable color regions)算法用于自然场景文本检测,提出一种结合MSCRs与MSERs的自然场景文本检测方法。 首先采用MSCRs算法与MSERs算法提取候选字符区域;然后利用候选字符区域的纹理特征训练随机森林字符分类器,对候选字符区域进行分类,从而得到字符区域;最后,依据字符区域的彩色一致性和几何邻接关系对字符进行合并,得到最终文本检测结果。 本文方法在ICDAR 2013上的召回率、准确率和F值分别为71.9%、84.1%和77.5%,相对于其他方法的召回率和F值均有所提高。 本文方法对自然场景图像文本检测具有较强的鲁棒性,实验结果验证了本文方法的有效性。  
      关键词:自然场景;复杂背景;文本检测;MSCRs;MSERs   
      4135
      |
      1855
      |
      8
      <HTML>
      <网络PDF><Meta-XML>
      <引用本文> <批量引用> 56112150 false
      更新时间:2024-05-07
    • 动态背景下自适应LOBSTER算法的前景检测

      陈树, 丁保阔
      2017, 22(2): 161-169. DOI: 10.11834/jig.20170203
      摘要:前景检测是视频监控领域的研究重点之一。LOBSTER(local binary similarity segmenter)算法把ViBe(visual background extractor)算法和LBSP(local binary similarity patterns)特征结合起来,在一般场景下取的了优良的检测性能,但是LOBSTER算法在动态背景下适应性差、检测噪声多。针对上述问题,提出一种改进的LOBSTER算法。 在模型初始化阶段,计算各像素的LBSP特征值,并分别把像素的灰度值和LBSP特征值添加到各像素的颜色背景模型与LBSP背景模型中,增强了背景模型的描述能力;在像素分类阶段,根据背景复杂度自适应调整每个像素在颜色背景模型和LBSP背景模型中的分类阈值,降低了前景中的噪声;在模型更新阶段,根据背景复杂度自适应调整每个像素背景模型的更新策略,提高背景模型对动态背景的适应能力。 本文算法与ViBe算法和LOBSTER算法进行了对比实验,本文算法的前景图像比ViBe算法和LOBSTER算法的噪声点大幅较低,本文算法的PCC指标在不同视频库中比ViBe算法提高0.736%7.56%,比LOBSTER算法提高0.77% 12.47%,FPR指标不到ViBe算法和LOBSTER算法的1%。 实验仿真结果表明,在动态背景的场景下,本文算法比ViBe算法和LOBSTER算法检测到的噪声少,具有较高的准确率和鲁棒性。  
      关键词:ViBe算法;LBSP特征;LOBSTER算法;前景检测;目标跟踪   
      3336
      |
      1385
      |
      2
      <HTML>
      <网络PDF><Meta-XML>
      <引用本文> <批量引用> 56112652 false
      更新时间:2024-05-07
    • 改进星型级联可形变部件模型的行人检测

      韦皓瀚, 曹国, 金挺, 王必胜, 尚岩峰
      2017, 22(2): 170-178. DOI: 10.11834/jig.20170204
      摘要:行人检测是计算机视觉和模式识别领域的研究热点与难点,由于经典的可形变部件模型(DPM)检测速度太慢,引入PCA降维的星型级联检测可形变部件模型(casDPM)相比较于DPM模型检测速度虽然有了很大提升,但在应用于行人检测时,出现检测精度较低、平均对数漏检率较高的情况,为了更加准确地对行人进行检测,提出了一种改进casDPM模型的行人检测方法。 首先利用对象度量方法获取目标候选区域,结合目标得分信息得到casDPM模型低分检测区域的置信度,在设定的阈值上保留检测窗口;然后针对casDPM模型原有非极大值抑制(Nms)算法只利用单一的面积信息,造成误检数较高的情况,提出了利用检测窗口的得分信息进行改进;最后将两种方法结合起来,提出了融合的cas-WNms-BING模型。 采用本文方法在INRIA数据集上进行检测,实验结果表明该方法对于行人形变、背景特征复杂及遮挡现象具有较强的鲁棒性,相比casDPM模型,本文提出的方法平均精度(AP)可以提高1.74%,平均对数漏检率可以降低4.45%。 提出一种改进星型级联可形变部件模型,取得一定的研究成果,在复杂的背景下,能够有效地进行行人检测,主观视觉感受和客观实验评价指标都表明该方法可以有效提升模型行人检测效果。但是,星型级联可形变部件模型训练及检测效率仍有待提高,需进一步对模型存在的一些局限性进行深入研究。  
      关键词:星型级联检测可形变部件模型;行人检测;非极大值抑制;目标区域   
      3295
      |
      1355
      |
      4
      <HTML>
      <网络PDF><Meta-XML>
      <引用本文> <批量引用> 56112783 false
      更新时间:2024-05-07
    • 自适应特征点检测的可见-红外图像配准

      王晗, 魏明
      2017, 22(2): 179-187. DOI: 10.11834/jig.20170205
      摘要:针对可见—红外图像之间配准点的数量不足、分布严重不均匀以及配准点之间的错配率高这3个核心问题,提出一种基于自适应特征点检测的可见—红外图像配准方法。 本文提出的自适应特征点检测方法,以Harris corner作为基本特征点;以特征点数目与空间分布为检测目标,从而自动地估计合适不同空间位置的特征点的检测阈值。在特征点对匹配中,将梯度方向与互信息相融合有效地添加了相似性函数的空间位置信息。 自适应Harris corner检测方法能够有效地提供空间分布均匀、数量充足的特征点。而梯度方向与互信息相融合的相似性匹配函数提高特征点的匹配率20%,降低配准误差50%。 本文提出的多传感器图像配准方法能够快速、准确地实现可见光图像与红外图像之间的配准,在CCD-IR图像融合领域具有很好的实用价值。  
      关键词:自适应特征点检测;可见—红外图像配准;互信息;梯度方向   
      2971
      |
      1903
      |
      3
      <HTML>
      <网络PDF><Meta-XML>
      <引用本文> <批量引用> 56115275 false
      更新时间:2024-05-07
    • 核空间广义均衡模糊C-均值聚类算法

      杜朵朵, 吴成茂
      2017, 22(2): 188-196. DOI: 10.11834/jig.20170206
      摘要:针对现有广义均衡模糊C-均值聚类不收敛问题,提出一种改进广义均衡模糊聚类新算法,并将其推广至再生希尔伯特核空间以便提高该类算法的普适性。 在现有广义均衡模糊C-均值聚类目标函数的基础上,利用Schweizer T范数极限表达式的性质构造了新的广义均衡模糊C-均值聚类最优化目标函数,然后采用拉格朗日乘子法获取其迭代求解所对应的隶属度和聚类中心表达式,同时对其聚类中心迭代表达式进行修改并得到一类聚类性能显著改善的修正聚类算法;最后利用非线性函数将数据样本映射至高维特征空间获得核空间广义均衡模糊聚类算法。 对Iris标准文本数据聚类和灰度图像分割测试表明,提出的改进广义均衡模模糊聚类新算法及其修正算法具有良好的分类性能,核空间广义均衡模糊聚类算法对比现有融入类间距离的改进模糊C-均值聚类(FCS)算法和改进再生核空间的模糊局部C-均值聚类(KFLICM)算法能将图像分割的误分率降低10%30%。 本文算法克服了现有广义均衡模糊C-均值聚类算法的缺陷,同时改善了聚类性能,适合复杂数据聚类分析的需要。  
      关键词:广义均衡模糊C-均值聚类;核空间;Schweizer T范数;图像分割;误分率;聚类性能   
      2430
      |
      1395
      |
      0
      <HTML>
      <网络PDF><Meta-XML>
      <引用本文> <批量引用> 56114168 false
      更新时间:2024-05-07

      计算机图形学

    • 形状可调的5次组合样条及其参数选择

      李军成, 严兰兰, 刘成志
      2017, 22(2): 197-204. DOI: 10.11834/jig.20170207
      摘要:为了克服3次参数B样条在形状调整与局部性方面的不足,提出带参数的5次多项式组合样条。 首先构造一组带参数的5次多项式基函数;然后采用与3次B样条曲线相同的组合方式定义带参数的5次多项式组合样条曲线,并讨论基于能量优化法的5次组合样条曲线参数最佳取值问题;最后定义相应的组合样条曲面,并研究利用粒子群算法求解曲面的最佳参数取值。 5次组合样条不仅继承了3次B样条的诸多性质,而且还比3次B样条具有更强的局部性及形状可调性。由于5次组合样条仍为多项式模型,因此方程结构相对较为简单,符合实际工程的需要。利用能量优化法可获得光顺的5次组合样条曲线与曲面。 所提出5次多项式组合样条克服了3次参数B样条在形状调整与局部性方面的不足,是一种实用的自由曲线曲面造型方法。  
      关键词:B样条;组合样条;形状调控;能量优化法;粒子群算法   
      2629
      |
      1296
      |
      2
      <HTML>
      <网络PDF><Meta-XML>
      <引用本文> <批量引用> 56113254 false
      更新时间:2024-05-07

      遥感图像处理

    • 小波包信息熵特征矢量光谱角高光谱影像分类

      郭辉, 杨可明, 张文文, 刘聪, 夏天
      2017, 22(2): 205-211. DOI: 10.11834/jig.20170208
      摘要:针对高光谱数据波段多、数据存在冗余的特点,将小波包信息熵特征引入到高光谱遥感分类中。 通过对光谱曲线进行小波包分解变换,定义了小波包信息熵特征矢量光谱角分类方法(WPE-SAM),基于USGS光谱库中4种矿物光谱数据的分析表明,WPE-SAM可增大类间地物的可区分性。在特征矢量空间对Salina高光谱影像进行分类计算,并讨论了小波包最佳分解层的确定,分析了WPE-SAM与光谱角制图(SAM)方法的分类精度。 Salina数据实例计算表明:小波包信息熵矢量能较好地描述原始光谱特征,WPE-SAM分类方法可行,总体分类精度(OA)由SAM的78.62%提高到WPE-SAM的78.66%,Kappa系数由0.769 0增加到0.769 5,平均分类精度(AA)由83.14%提高到84.18%。此外,通过Pavia数据验证了WPE-SAM分类方法具有较强的普适性。 小波包信息熵特征可较好地表示原始光谱波峰、波谷等特征信息,定义的小波包信息熵特征矢量光谱角分类方法(WPE-SAM)可增大类间地物可区分性,有利于分类。实验结果表明,WPE-SAM分类方法技术可行,总体精度及Kappa系数较SAM有一定的提高,且有较强的普适性。但WPE-SAM方法精度与效率有待进一步提高。  
      关键词:信息熵;小波包子频段;高光谱分类;特征提取;最佳分解层   
      2765
      |
      1380
      |
      2
      <HTML>
      <网络PDF><Meta-XML>
      <引用本文> <批量引用> 56114112 false
      更新时间:2024-05-07
    • 韩斌, 吴一全, 宋昱
      2017, 22(2): 212-224. DOI: 10.11834/jig.20170209
      摘要:河流遥感图像是背景复杂的非匀质图像,利用传统的活动轮廓模型进行分割往往不够准确。针对这一问题,提出了基于区域信息融合的混合活动轮廓模型来分割河流遥感图像。 该混合模型将Chan-Vese(CV)模型和基于交叉熵的活动轮廓模型的外部能量约束项相结合,并赋予归一化调节比例系数。通过计算轮廓曲线内外区域像素灰度的方差和交叉熵,指导曲线逼近目标边缘。为了加速混合模型的演化,引入曲线内外区域像素灰度的类内绝对差,取代原有的内外区域能量权值,以提高混合模型的分割效率。 大量实验结果表明,相较于CV模型、测地线模型、基于交叉熵的活动轮廓模型、CV模型和测地线模型的混合模型以及局部全局灰度拟合能量模型(LGIF),本文混合模型分割河流遥感图像的灵敏度和上述方法都接近于100%,准确率大幅提升,在90%以上,虚警率则下降了约50%,且所需迭代次数和运行时间更少。 本文提出的混合模型主要适用于具有一定对比度的河流遥感图像,在分割性能和分割效率两个方面,都有明显的优势。  
      关键词:河流遥感图像;图像分割;区域信息融合;混合活动轮廓模型;类内绝对差;自适应权值   
      2991
      |
      1603
      |
      5
      <HTML>
      <网络PDF><Meta-XML>
      <引用本文> <批量引用> 56114588 false
      更新时间:2024-05-07

      第11届图像图形技术与应用学术会议栏目

    • 新型人体参数自动测量系统

      徐慧明, 夏立坤, 杨琪, 刘宇杰, 唐宋元, 杨健
      2017, 22(2): 225-231. DOI: 10.11834/jig.20170210
      摘要:针对国内外已有的非接触式测量系统普遍存在价格昂贵、安装复杂、占用空间大等问题,提出一种基于消失点和图像比例法相结合的人体参数尺寸的自动测量方法(HuFAMS-VP)。 首先,利用背景差分法,将人体从图像中分割出来;再将分割后的人体图像进行轮廓提取,从而获得人体轮廓图;然后,根据边缘检测和人体各个部位与人体身高比例等方法,获取人体几个关键部位特征点;最后,通过消失点方法(vanishing point)与比例法的结合获取人体参数尺寸。 根据HuFAMS-VP对7组被测人员(年龄在25±3岁,身高范围在1.7±0.2 m)进行尺寸测量,并与被测人员真实尺寸信息进行比较。由测量结果可以得到7组被测人员的绝对误差控制在±0.05 m之内,平均测量速度在2 s以内。 HuFAMS-VP在确保测量精度的前提下,具有操作方便、价格低廉等优势。根据测量结果,论证了本系统的准确性和鲁棒性。  
      关键词:背景差分;分割;消失点;特征识别;自动人体测量   
      6244
      |
      1832
      |
      4
      <HTML>
      <网络PDF><Meta-XML>
      <引用本文> <批量引用> 56112516 false
      更新时间:2024-05-07
    • 目标提取与哈希机制的多标签图像检索

      陈飞, 吕绍和, 李军, 王晓东, 窦勇
      2017, 22(2): 232-240. DOI: 10.11834/jig.20170211
      摘要:哈希是大规模图像检索的有效方法。为提高检索精度,哈希码应保留语义信息。图像之间越相似,其哈希码也应越接近。现有方法首先提取描述图像整体的特征,然后生成哈希码。这种方法不能精确地描述图像包含的多个目标,限制了多标签图像检索的精度。为此提出一种基于卷积神经网络和目标提取的哈希生成方法。 首先提取图像中可能包含目标的一系列区域,然后用深度卷积神经网络提取每个区域的特征并进行融合,通过生成一组特征来刻画图像中的每个目标,最后再产生整幅图像的哈希码。采用Triplet Loss的训练方法,使得哈希码尽可能保留语义信息。 在VOC2012、Flickr25K和NUSWIDE数据集上进行多标签图像检索。在NDCG(normalized discounted cumulative gain)性能指标上,当返回图像数量为 1 000时,对于VOC2012,本文方法相对于DSRH(deep semantic ranking hashing)方法提高24个百分点,相对于ITQ-CCA(iterative quantization-canonical correlation analysis)方法能提高36个百分点;对于Flickr25,本文方法比DSRH方法能提高2个左右的百分点;对于NUSWIDE,本文方法相对于DSRH方法能提高4个左右的百分点。对于平均检索准确度,本文方法在NUSWIDE和Flickr25上能提高25个百分点。根据多项评价指标可以看出,本文方法能以更细粒度来精确地描述图像,显著提高了多标签图像检索的性能。 本文新的特征学习模型,对图像进行细粒度特征编码是一种可行的方法,能够有效提高数据集的检索性能。  
      关键词:图像检索;卷积神经网络;哈希;多标签   
      6389
      |
      2370
      |
      7
      <HTML>
      <网络PDF><Meta-XML>
      <引用本文> <批量引用> 56111977 false
      更新时间:2024-05-07
    • 结合视觉注意机制与递归神经网络的图像检索

      李军, 吕绍和, 陈飞, 阳国贵, 窦勇
      2017, 22(2): 241-248. DOI: 10.11834/jig.20170212
      摘要:图像检索是计算机视觉的一项重要任务。图像检索的关键是图像的内容描述,复杂图像的内容描述很具有挑战性。传统的方法用固定长度的向量描述图像内容,为此提出一种变长序列描述模型,目的是丰富特征编码的信息表达能力,提高检索精度。 本文提出序列描述模型,用可变长度特征序列描述图像。序列描述模型首先用CNN(convolutional neural network)提取底层特征,然后用中间层LSTM(long short-term memory)产生局部特征的相关性表示,最后用视觉注意LSTM(attention LSTM)产生一组向量描述一幅图像。通过匈牙利算法计算图像之间的相似性完成图像检索任务。模型采用标签级别的triplet loss函数进行端对端的训练。 在MIRFLICKR-25K和NUS-WIDE数据集上进行图像检索实验,并和相关算法进行比较。相对于其他方法,本文模型检索精度提高了512个百分点。相对于定长的图像描述方式,本文模型在多标签数据集上能够显著改善检索效果。 本文提出了新的图像序列描述模型,可以显著改善检索效果,适用于多标签图像的检索任务。  
      关键词:图像检索;序列描述模型;特征提取;匈牙利算法;卷积神经网络;LSTM   
      7751
      |
      3309
      |
      3
      <HTML>
      <网络PDF><Meta-XML>
      <引用本文> <批量引用> 56113747 false
      更新时间:2024-05-07

      第25届全国多媒体学术会议栏目

    • 正弦积分拟合的图像复原边界振铃效应抑制方法

      赵明华, 张鑫, 石争浩, 曹慧
      2017, 22(2): 249-256. DOI: 10.11834/jig.20170213
      摘要:边缘振铃效应是影响运动模糊图像复原效果的重要因素之一。为了有效提高运动模糊图像复原的质量,针对运动模糊图像复原中由于图像边界截断而产生的振铃效应问题,提出一种正弦积分拟合的图像复原边界振铃效应抑制方法。 首先,对待处理的模糊图像根据模糊核的大小进行边缘延展;然后,分别利用正弦函数积分方法和双正弦函数积分方法对单向过渡区域和双向过渡区域进行窗函数计算;进而,将延展图像进行加窗处理;最后,对加窗图像进行复原处理并提取出原始图像的部分作为复原结果。 与现有的几种振铃效应抑制算法进行对比实验。在视觉效果方面,本文方法能有效抑制振铃效应;在峰值信噪比(PSNR)、归一化均方误差(NMSE)以及图像质量指数(Q)等图像质量评价指标方面,本文方法的PSNR值比最优窗算法提高了约0.170.76 dB,NMSE值比最优窗算法降低了约0.000 50.000 7,Q值比最优窗算法提高了约0.0230.029,本文方法在多数情况下得到的评价指标优于循环边界法;在耗时方面,本文方法对非迭代恢复算法的处理时间比循环边界算法降低了约0.040.11 s,对迭代恢复算法处理时间减少达到数秒。 通过大量实验发现,正弦积分拟合的图像复原边界振铃效应抑制方法在进行振铃效应抑制时,能有效控制计算量,且能完整地保留图像的边缘信息,图像恢复效果明显优于其他方法。  
      关键词:图象复原;运动模糊图像;振铃效应;正弦积分法;窗函数   
      4961
      |
      1535
      |
      1
      <HTML>
      <网络PDF><Meta-XML>
      <引用本文> <批量引用> 56112561 false
      更新时间:2024-05-07
    • 级联回归的多姿态人脸配准

      伍凯, 朱恒亮, 郝阳阳, 马利庄
      2017, 22(2): 257-264. DOI: 10.11834/jig.20170214
      摘要:人脸配准是当前计算机视觉领域的研究热点之一,其目的是准确定位出人脸图像中具有语义特征的面部关键点,这也是人脸识别、人脸美化等众多与人脸有关的视觉任务的重要步骤。最近,基于级联回归的人脸配准算法在配准精度和速度上都达到了最先进的水准。级联回归是一种迭代更新的算法,初始脸形将通过多个线性组合的弱回归器逐渐逼近真实的人脸形状。但目前的算法大多致力于改进学习方法或提取具有几何不变性的特征来提升弱回归器的能力,而忽略了初始脸形的质量,这极大的降低了它们在复杂场景下的配准精度,如夸张的面部表情和极端的头部姿态等。因此,在现有的级联回归框架上,提出自动估计初始形状的多姿态人脸配准算法。 本文算法首先在脸部区域提取基于高斯滤波一阶导数的梯度差值特征,并使用随机回归森林预测人脸形状;然后针对不同的形状使用独立的级联回归器。 验证初始形状估计算法的有效性,结果显示,本文的初始化算法能给现有的级联回归算法带来精度上的提升,同时结果也更加稳定;本文算法产生的初始形状都与实际脸型较为相近,只需很少的初始形状即可取得较高的精度;在COFW、HELEN和300W人脸数据库上,将本文提出的多姿态级联回归算法和现有配准算法进行对比实验,本文算法的配准误差相较现有算法分别下降了29.2%、13.3%和9.2%,结果表明,本文算法能有效消除不同脸型之间的干扰,在多姿态场景下得到更加精确的配准结果,并能达到实时的检测速度。 基于级联回归模型的多姿态人脸配准算法可以取得优于现有算法的结果,在应对复杂的脸形时也更加鲁棒。所提出的初始形状估计算法可以自动产生高质量的初始形状,用于提升现有的级联回归算法。  
      关键词:人脸配准;级联回归;初始化策略;随机回归森林;多姿态   
      8512
      |
      2133
      |
      3
      <HTML>
      <网络PDF><Meta-XML>
      <引用本文> <批量引用> 56111831 false
      更新时间:2024-05-07
    • 足球视频镜头分类与球场区域检测

      吴玲生, 于俊清, 何云峰, 王勋
      2017, 22(2): 265-272. DOI: 10.11834/jig.20170215
      摘要:足球视频镜头和球场区域是足球视频事件检测的必要条件,对于足球视频语义分析具有重要作用。针对现有镜头分类方法的不足,提出识别足球视频镜头类型的波动检测法。 该方法使用一个滑动窗口在视频帧图像中滑动,记录滑动窗口内球场像素比例在远镜头阈值上下的波动次数,根据波动次数判断镜头类型。对于足球场地区域分类,提出使用视频图像中球场区域的左上角和右上角点的位置关系识别球场区域类型的方法,该方法使用高斯混合模型识别出球场,根据球场在帧图像中左右边界坐标的高低判断球场区域类型,方法简单高效。 本文提出的两种方法与现有的分类方法相比,在准确率和召回率方面具有较大提高,检测效率高,可以满足实时性要求。 本文方法解决了传统滑动窗口法无法正确识别球场倾斜角度过大的帧图像,降低了传统球场区域检测方法依赖球场线检测而导致的准确率不高的问题。  
      关键词:足球视频;镜头类型;球场区域;波动检测法;位置关系   
      4428
      |
      1494
      |
      0
      <HTML>
      <网络PDF><Meta-XML>
      <引用本文> <批量引用> 56112171 false
      更新时间:2024-05-07
    0