1研究背景前景分割是图像目标检测(Li等,2018b;Chen等,2016)、语义分割(Chen等,2017;Wang等,2018c)、显著性检测(Li等,2018c)等领域中的重要任务之一。给定一幅图像,前景分割的任务是提供一种实现像素级前景、背景分类的模型。在现有研究中,基于全监督学习的方法(Chen等,2018;Long等,2015)已经取得了良好的性能。然而,在很多实际情况中,经常面临着精确的像素级标注难以大量、高效获取的问题。因此,在弱监督、无监督条件下实现前景分割和语义分割,成为一项具有重要意义的工作。本文面向无监督前景分割任务,提出了一种语义—表观特征融合的分割方法(semantic apparent feature fusion,SAFF)。研究发现,图像中的高维语义特征往往能够实现对前景关键区域的捕捉,但缺乏细节信息;而以显著性、边缘等为代表的表观特征,则更好地提供了图像细节表达和对局部区域间相似关系的描述,但缺乏对前景物体的语义表达。同时,对于不同的图像、实例而言,其语义特征和表观特征具有不同的表达能力和精度。因此,本文建立了一种自适应参数学习的方式,提出了一种对每幅图像语义和表观特征的最优加权策略,实现了对前景区域的精确提取。接着,使用多实例学习的框架以实现不同图像前景共性特征的计算,并进一步实现了对图像前景分割结果的重推理和性能优化。在已有研究中,基于弱监督和全监督的语义分割方法为本文提供了参考。一方面,现有面向前景及语义分割任务的研究,提供了多种全监督条件的学习框架。以全卷积网络(fully convolutional network, FCN)(Long等,2015)为基础,DeepLab (Chen等,2018)及其变体通过引入空洞卷积(Chen等,2018;Wang等,2018a)、条件随机场(conditional random fields, CRFs)(Zheng等,2015)、深度空间金字塔池化(atrous spatial pyamid pooling, ASPP)等单元,得到了更高的性能。而针对无监督任务,虽然基于全监督的深度学习框架不能直接实现对像素级分割的学习与推理,但其仍然可以用来学习不同图像和实例间的共性表达。在本文中,基于大量图像样本和对应的初始分割结果,运用全监督框架来实现对前景共性特征的学习。进一步地,利用训练好的分割网络,每一幅图像可以被重新推理得到性能更高的分割结果。另一方面,当前弱监督条件下的前景或语义分割任务得到了广泛的关注。其中,只利用图像标签的弱监督条件最具有难度。在这一设置下,采用两阶段式的方法取得了更高的性能,即首先生成伪标签信息,再利用全监督框架实现语义分割过程(Wang等,2018c;Ahn和Kwak,2018;Huang等,2018;Li等,2020)。在伪标签生成中,类别激活映射(class activation mapping, CAM)模型(Zhou等,2016)被广泛用来计算图像对分类贡献具有高响应的语义区域。基于初始定位种子,AffinityNet (Ahn和Kwak,2018)提出了一种从伪标签中学习像素间相似关系的方法,实现了对初始标注精度的提升;DSRG(deep seed region growing) (Huang等,2018),MCOF (mine common object feature)(Wang等,2018c),WRSS(weaklier supervised segmentation) (Li等,2020)则分别考虑在全监督训练过程中利用不同的迭代结构提升分割的性能。受到这些工作启发,本文同样采用两阶段的方式实现前景分割任务。对于一幅图像而言,由于其只包含前景和背景两个类别,因此无监督前景分割任务可以看为是弱监督语义分割的一种变体。本研究首先建立了基于图内上下文信息的前景学习模型,进一步将生成的特征图作为伪标签信息,利用分割网络实现图间多实例学习过程,最终得到高质量的分割结果。本文的贡献主要包括以下3个方面:1) 提出了一种语义和表观特征联合编码的无监督图像前景分割方法,并建立了一种图像内上下文相似度计算模型,得到了对图像前景信息的判别性表达。2) 提出了一种自适应权重的图像内区域前景置信度学习和推理方法,自适应地实现对不同图像、实例的最优特征加权,实现了高质量的分割结果。分割网络被级联使用来学习多实例间的共性特征,并进一步提升了性能。3) 针对无监督前景分割任务,本文方法在PASCAL VOC(pattern analysis, statistical modelling and computational learning visual object classes) 2012数据集上得到的分割结果取得了明显高于基线的性能。2算法框架给定一幅图像,首先将其编码为语义特征和表观特征。具体地,研究采用在ImageNet (Deng等,2009)上预训练的特征提取器作为高维语义编码模块,用显著性、边缘特征编码图像的表观信息。同时,计算图像的超像素分割结果。对于每个超像素,以4维特征来描述其前景置信度。具体地,首先利用语义特征各维度的最大响应值和显著性值来分别描述该超像素区域的一元区域语义、表观特征。接着,定义了两两超像素之间的语义特征相似度和边缘连通度,结合图像一元超像素区域特征,计算生成了二元上下文语义和表观特征。语义特征相似度、边缘连通度的计算参考了Wang等人(2018b)和Li等人(2018a)的工作。进一步地,提出了一种自适应权重计算的方法。对于每个超像素,以这4维特征作为输入,通过自适应学习得到的权重,实现对前景置信度的推理。对于$N$幅图像样本,将得到$N$个对应的前景分割结果。此时,将这些前景分割结果作为伪标签,采用全监督分割网络的框架,实现了对图像多实例间前景共性特征的学习。基于训练完成的模型,不仅这$N$幅用于训练的图像样本可以被重推理优化,得到更精确的前景分割结果,其他图像也可以直接被推理实现前景分割。图 1展示了本文基于语义—表观特征融合的前景分割算法的完整框架。 图1 基于语义—表观特征融合的前景分割算法(SAFF)框架 The framework of foreground segmentation method via semantic-apparent feature fusion(SAFF)Fig 13语义—表观特征编码3.1特征图生成及预处理给定一幅图像,将其图像成像属性特征(如颜色、纹理、边缘和显著性等)定义为表观特征,具有类别标签的特征定义为语义特征。为了编码图像的表观特征和语义特征,首先计算图像的语义特征响应图、显著性目标图和边缘图。一方面,对于语义特征的生成,由于无监督条件下没有针对目标数据集的额外标注信息,研究采用基于ImageNet (Deng等,2009)预训练的类别激活映射(class activation mapping, CAM)(Zhou等,2016)模型生成特征图。这里,GoogLeNet(Szegedy等,2015)作为基础特征提取框架。对于一幅图像,将编码得到1 000维的响应特征。需要说明,研究并不像一般的弱监督语义分割任务一样,需要训练集中的图像类别标签来训练CAM网络,而是只将该模型作为语义特征提取器,并没有使用ImageNet的类别信息,也没有使用训练集中的其他标注信息。因此,在任意数据集上进行训练时,不再需要额外的标注信息,故将任务定义为无监督前景分割任务。另一方面,显著性响应图和边缘特征图用做表观特征。采用了判别性区域特征融合方法(discriminative regional feature integration, DRFI)(Jiang等,2013)进行显著性特征的计算,而EdgeBoxes(Zitnick和Dollár,2014)方法则用于提取边缘信息。需要说明的是,任何一种高维语义热图、显著性、边缘的特征编码算法都可以用于语义和表观特征计算,即本文方法可以广泛地将不同模型得到的特征作为初始信息,进一步实现对图像中前景区域的更精准分割。同时,将图像进行了超像素分割,并以超像素代表图像中最小的计算单元,以同时提高局部特征的表达能力并保证计算的高效性。使用简单线性迭代聚类(simple linear iterative clustering, SLIC)(Achanta等,2012)方法, 通过设置初始的超像素数目,在图像内均匀设置初始种子点,并在种子点的邻域计算域内所有像素点的梯度值,将种子点向梯度最小处移动。进一步地,根据距离度量对每个种子邻域内的像素进行标签分类,完成超像素分割过程。利用特征编码结果,定义了图像中每个超像素${\mathit{\boldsymbol{sp}}}_{{i}}$的语义、表观特征是该超像素包含的所有像素的特征值的均值。特别地,语义特征图来自基于CAM的图像编码结果,${\mathit{\boldsymbol{vs}}}_{{i}}$表示该超像素的1 000维归一化语义表达,且各维度的值分布在[0, 1]之间。表观特征中的显著性特征来自DRFI方法提供的显著性图,研究中使用${\mathit{\boldsymbol{S}}}_a(i)$表示其归一化的显著性特征。3.2一元区域特征编码基于语义、表观特征,首先针对每个超像素区域直接进行一元区域特征编码。在生成每种一元区域特征和二元上下文特征时,将其值编码在[0, 1]区间内。具体地,对于一个超像素${\mathit{\boldsymbol{sp}}}_{{i}}$,其一元区域语义特征定义为${\mathit{\boldsymbol{vs}}}_{{i}}$各个维度中的最大值${\mathit{\boldsymbol{S}}}_{{s}}(i)$,表观特征则直接以显著性特征${\mathit{\boldsymbol{S}}}_{{a}}(i)$为代表。对于一幅包含$K$个超像素的样本而言,2个$K$维的特征向量$[ …, {\mathit{\boldsymbol{S}}}_{{s}}(i), …] ^{\rm{T}}$和$[ …, {\mathit{\boldsymbol{S}}}_{{a}}(i), …] ^{\rm{T}}$可以用来分别描述整幅图像的一元语义和表观特征。3.3二元上下文特征编码利用语义特征表达,对于一幅图像中的两两超像素对${\mathit{\boldsymbol{sp}}}_{{i}}$和${\mathit{\boldsymbol{sp}}}_{{j}}$,该超像素对语义相似度的表达为 1 $M_{s}(i, j)=\sum\limits_{d=1}^{1000} \min \left(\boldsymbol{v} \boldsymbol{s}_{i, d}, \boldsymbol{v} \boldsymbol{s}_{j, d}\right)$ 需要注意的是,${\mathit{\boldsymbol{vs}}}_{{i}}$和${\mathit{\boldsymbol{vs}}}_{{j}}$是两个归一化的向量,且各个维度的值均大于0。在计算时,本文对各维度取二者中的较小值,而后采用加和的方式,实际上是对两个向量的交叠面积进行了计算。因此,得到的相似度计算结果是一个在[0, 1]范围内的度量值,值越大表明二者越相近。另一方面,参考了Zheng等人(2015)的研究,超像素对之间的表观相似度定义为 2 $M_{a}(i, j)=\exp \left(-w_{e} \cdot E(i, j)\right)$ 式中,参考AO-AIM(alternative optimization adaptive influence model)(Li等,2018c)方法的定义,$E(i, j)$定义为超像素${\mathit{\boldsymbol{sp}}}_{{i}}$和${\mathit{\boldsymbol{sp}}}_{{j}}$之间的边缘重量。具体地,利用EdgeBoxes(Zitnick和Dollár,2014)方法提供的边缘图编码结果,$E(i, j)$定义为图像中两两超像素中心像素连线所经过的所有边缘图上像素值的和。$w_{{e}}$是一个正数,在本文实验中,参考了Li等人(2018c, 2020)的工作,将其值设置为3.5。容易得到,$M_s(i, j)$和$M_a(i, j)$都是分布在[0, 1]上的测度,且值越大对应两者之间具有越高的特征相似度或越小的边缘图上距离。利用基于语义相似度和表观相似度的计算方法,图像中两两超像素对之间的相似度量可以表征为矩阵形式${\mathit{\boldsymbol{M}}}_{{s}}$,${\mathit{\boldsymbol{M}}}_{ {a}}$。进一步地,将其对角元置零,并对矩阵逐行进行加和归一化处理,得到修正后的矩阵${\mathit{\boldsymbol{M}}}_{ {s}}′$,${\mathit{\boldsymbol{M}}}_{a}′$。对于每一个超像素${\mathit{\boldsymbol{sp}}}_i$,修正后的矩阵${\mathit{\boldsymbol{M}}}′ _{\rm{*}}$中的参数表示了图像中每个超像素与其他超像素的相似度量值。进一步地,本文方法将该相似度量值作为权重,以加权平均的方式,定义了图中每个超像素的语义和表观上下文特征${\mathit{\boldsymbol{S}}}_s^{ctx}(i)$、${\mathit{\boldsymbol{S}}}_a^{ctx}(i)$。矩阵形式的全部超像素的上下文特征计算为 3 $\left[\cdots, \boldsymbol{S}_{a}^{c t x}(i), \cdots\right]^{\mathrm{T}}=\boldsymbol{M}_{s}^{\prime} \cdot\left[\cdots, \boldsymbol{S}_{a}(i), \cdots\right]^{\mathrm{T}}$ 4 $\left[\cdots, \boldsymbol{S}_{s}^{c t x}(i), \cdots\right]^{\mathrm{T}}=\boldsymbol{M}_{a}^{\prime} \cdot\left[\cdots, \boldsymbol{S}_{s}(i), \cdots\right]^{\mathrm{T}}$ 需要指出,在计算二元特征时,表观上下文特征是基于语义相似度矩阵和一元区域表观特征计算得到的;而语义上下文特征的生成则参考了表观相似度量和一元语义特征。这种交叉特征推理的方式,一方面,更好地融合了两种特征并为前景区域推理提供了更丰富的表达;另一方面,避免了同一种特征同时被应用于一元表达和二元推理过程造成的误差累积。4自适应权重学习与推理4.1自适应权重学习基于得到的一元、二元语义—表观编码特征,使用加权求和的方式,生成前景置信度图。对于每一个超像素${\mathit{\boldsymbol{sp}}}_{{i}}$,其置信分数$Sco_{\rm{saff}}(i)$定义为 5 $Sco_{\text {saff }}(i)=\operatorname{Sco}_{v}(i)^{\mathrm{T}} \cdot \boldsymbol{w}+\text { bias }$ 式中,${\mathit{\boldsymbol{w}}}$为编码特征权重向量,$bias$为偏置系数,${\mathit{\boldsymbol{Sco}}}_v(i)$代表了该超像素编码得到的4元编码特征,即 6 $\boldsymbol{Sco}_{v}(*)=\left[\begin{array}{llll}\boldsymbol{S}_{s}, & \boldsymbol{S}_{s}^{c t x}, & \boldsymbol{S}_{a}, & \boldsymbol{S}_{a}^{c t x}\end{array}\right]^{\mathrm{T}}$ 考虑到对于不同的图像而言,一元、二元语义特征和表观特征对前景推理的影响不同,因此,本文并不把${\mathit{\boldsymbol{w}}}$和$bias$设置成固定参数,而是采用自适应的方式实现参数的选取。首先,基于先验知识,假设当超像素的一元区域的表观、语义特征均具有高前景置信分数时应为前景,而均具有低置信分数时应判别为背景,并由此生成伪标注信息。具体地,给定一幅图像,对于每一个超像素${\mathit{\boldsymbol{sp}}}_{{i}}$,计算其一元表观特征和语义特征的几何平均值,并分别选取值小于$th_{\rm{bg}}$和大于$th_{\rm{fg}}$的超像素(bg和fg分别代表了背景(background)与前景(foreground),将其置信分数设置为0和1作为伪标签(实验中,$th_{\rm{bg}}$和$th_{\rm{fg}}$分别设置为0.2和0.6,该数值是在实验过程中,通过大量不同的参数设置实验后,选取的性能最佳的数值)。此时,将每一组结果代入式(5),可以得到以${\mathit{\boldsymbol{w}}}$和$bias$为自变量的超定方程。此时,式(5)可以作为定义左右两端变量的目标函数,看做线性回归问题。这里,使用最小二乘方法,以得到对线性条件下最优参数的计算。在得到了权重${\mathit{\boldsymbol{w}}}$和偏置$bias$后,利用式(5)对图像中每一个超像素的前景置信度进行推理。这里限制分数的范围在[0, 1]区间,对于区间外的结果,将其映射到相近的边界上。在生成伪标签时,观察到一幅图像中选取出的背景样本往往远多于前景样本,而这会使得参数估计时对前背景置信分数计算产生一定偏差。因此,采用了一种样本均衡策略,即对较少的一类样本进行重采样,再将前背景平衡后的样本用于自适应参数估计的计算中。具体地,在对式(5)进行参数估计时,会选取$N_{{p}}$个对应于前景的超像素和$N_{{n}}$个对应于背景的超像素。对于其中较少的一类(例如$N_{p}N_n$),会在选取$N_p$个样本的基础上,进一步以等概率的方式在$N_{{p}}$个样本中采样$N_n-N_p$次,实现正负样本选取数量的均衡化。最终,将超像素映射回图像的对应位置,可以得到一幅对应值分布在[0, 1]区间的前景置信度图。4.2基于分割网络的重推理优化对于每一幅图像,本文模型可以获取到融合了图像内部语义和表观上下文先验的前景区域推理结果。进一步地,基于$N$幅包含了不同场景和实例的图像,利用全监督前景分割网络学习的框架,实现对不同图像、多种实例中前景的共性特征表达学习,实现通过多实例学习过程提取前景共性特征。首先,对每幅图像对应的前景分割置信度图进行二值化操作,以0.5为阈值划分前景和背景,生成$N$张伪标签。利用伪标签,基于全监督学习的方式实现对分割网络的训练,本文采用以VGG-16(Visual Geometry Group 16-layer net)(Simonyan和Zisserman,2014)为基础网络的DeepLab-V2(Chen等,2018)模型。事实上,该模块可以被任意语义分割或前景分割模型代替。利用训练完成的模型,每一幅图像可以被重新推理,并生成新的前景分割置信度图。同时,训练得到的网络模型也可以直接对其他图像进行前景分割的推理。通过融合基于图内语义—表观信息的上下文学习,和基于图间前景共性特征的多实例学习,可以获得更好的前景分割结果。5实验5.1数据集及训练和评估方法设置基于PASCAL VOC 2012图像分割数据集(Everingham等,2010)进行了性能评估。使用增广数据(Hariharan等,2011),使训练集中共包含10 582幅图像样本,验证集包含1 449幅图像样本。这一数据集包括了20类前景物体和1类背景,评估时将所有属于物体类别的像素设置为前景。进行网络训练时,使用了以VGG-16为骨架的DeepLab-V2模型,以语义分割标准的逐像素平均交叉熵损失函数作为优化对象。损失函数表达为 7 ${Loss}=-\sum\limits_{c=1}^{M} y_{c} \cdot \log \left(p_{c}\right)$ 式中,$Loss$为损失函数,$M$是类别总数,$y_{{c}}$只有0和1两种取值,当对应像素类别为$c$设为1,否则为0。$p_{{c}}$为网络预测输出的结果。在训练时,采用了ImageNet预训练后的特征提取网络参数,并进行微调。基础学习率设置为0.001,学习率衰减采用了Poly模式,采用Momentum作为优化器,训练时设置的批处理大小为16,最大迭代次数为20 000次。训练好的网络参数将被固定,并用于重推理训练集,以及对其他任意测试图像实现前背景分割结果的输出。图 2展示了训练过程的损失函数优化曲线。 图2 训练过程优化曲线 Optimization curve during training processFig 2本文基于准确率(precision)、召回率(recall)和F-测度指标(F-measure)对前景分割的性能进行了评估。具体地,对于每一幅图像和对应的前景置信度图,本文将归一化的热图映射到从0~255的区间,并分别计算以0, 1, …, 255作为划分阈值时得到的准确率和召回率,进一步地, 计算F-测度指标 8 $F_{\text {measure }}=\frac{\left(1+\beta^{2}\right) \cdot P \times R}{\beta^{2} \cdot P+R}$ 式中,$P$和$R$分别表示准确率和召回率。参考典型的显著性区域检测、前景分割方法(Li等,2018c;Wang等,2018b),本文将$β^2$设置为0.3。5.2实验性能及分析针对PASCAL VOC 2012的训练集,通过准确率—召回率曲线和F-测度指标的对比来展示方法的性能。同时,为了比较本文方法的性能并证明各个步骤的有效性,对基线方法和本文方法中各个模块分步优化的结果都进行了评估。具体地,对比了基于DRFI (Jiang等,2013)的显著性物体检测、基于CAM (Zhou等,2016)的语义热图生成的方法。在此基础上,基于这些方法生成的伪标签,再使用分割网络重推理优化的结果也被用于对比。同时进行了对不同模块的消融实验比较,样本均衡处理、重推理优化模块被使用或舍弃时的算法性能均被评估。需要指出,本文针对的是无监督条件的前景分割问题,因此并没有采用有专门任务标签训练条件下生成的语义和表观特征的方法作为基线模块。事实上,任何一种语义特征和表观特征编码方法,都可以用于本文提出的学习结构,实现对前景分割任务性能的优化。表 1和表 2分别展示了不同方法在PASCAL VOC 2012训练集和验证集上的F-测度指标比较结果。除了基线方法外,基于极弱监督的典型前景分割方法(weaklier supervised segmentation, WRSS)(Li等,2020)也被陈列,可以看到,本文方法得到的结果与该典型方法相比,仍达到了可比较的性能。在验证集上的结果是由以不同方法为伪标签训练的分割网络直接推理得到的,并未对验证集图像进行其他操作。因此,基于本文方法训练得到的模型进行前景分割的时间开销仅包括所使用的端到端分割网络推理时间,可以高效地应用于实际分割任务。对于本文中使用的以VGG-16为骨架的Deeplab-v2模型而言,算法的时间开销只与全监督语义分割网络的模型参数量和计算复杂度相关。能够看到,本文方法通过自适应调整语义特征和表观特征对前景置信分数计算的贡献,实现了更高性能的前景分割。另外,在验证集上的结果也证明了基于SAFF得到的前景分割结果更好地指导了分割网络对前景提取的能力和在新数据上的泛化能力。 表1 PASCAL VOC 2012训练集前景分割F-测度比较 方法 样本均衡 网络重推理 F-测度 DRFI 0.638 3 DRFI √ 0.651 3 CAM 0.604 4 CAM √ 0.611 6 WRS √ 0.684 1 SAFF (本文) 0.663 5 SAFF (本文) √ 0.670 3 SAFF (本文) √ 0.674 5 SAFF (本文) √ √ 0.686 3 F-measure of foreground segmentation on PASCAL VOC 2012 train setTable 1 加粗字体表示最优结果。 表2 PASCAL VOC 2012验证集前景分割F-测度比较 方法 样本均衡 F-测度 DRFI 0.638 8 CAM 0.582 8 WRS 0.676 1 SAFF (本文) 0.659 2 SAFF (本文) √ 0.672 5 F-measure of foreground segmentation on PASCAL VOC 2012 validation setTable 2 加粗字体表示最优结果。图 3展示了不同方法的准确率—召回率曲线对比。除了基线以外,研究同样比较了在样本均衡、分割网络重推理策略使用与否条件下的性能结果。观察到,基于训练集、验证集的准确率—召回率曲线的评估结果同样证明了本文方法各个模块性能的有效性。图 4和图 5展示了部分在训练集和验证集上的可视化结果,可以看出,本文方法得到的前景分割同时收获了更好的语义区域定位和完整前景区域挖掘的性能。特别地,图 4第4行的结果展示了通过图间多实例学习,初始的错误前景分割种子仍可以修正,并最终得到高质量的前景区域提取结果。 图3 不同方法在数据集上的准确率—召回率曲线性能比较 Comparison results of performance on precision-recall rate for different methods on dataset ((a)precision-recall rate on PASCAL VOC train set; (b)precision-recall rate on PASCAL VOC validation set)Fig 3 图4 不同方法在训练集得到的可视化结果对比 Visual results via different methods on train setFig 4((a)original images; (b)DRFI; (c)CAM; (d)SAFF(no re-inferred); (e)SAFF(re-inferred); (f)truth) 图5 不同方法在验证集得到的可视化结果对比 Visual results via different methods on validation setFig 5((a)original images; (b)DRFI; (c)CAM; (d)SAFF; (e)truth)6结论本文提出了一种基于表观—语义特征融合的无监督前景分割方法。对于一幅图像,首先计算图中每个超像素的一元区域语义和表观特征。接着,通过交叉利用表观和语义特征的相似度量,实现了两种特征的融合,并计算得到了每个区域的二元图内上下文信息。进一步建立了自适应权重学习的策略,通过自动调节每一个特定图像实例中各个维度特征对前景估计的影响,得到一组最优的实现前景分割的权重参数,并实现了对图像前景置信度的推理。最后,使用分割网络模型以学习不同实例之间的前景共性特征。利用训练得到的网络模型,图像可以重推理得到更准确的前景分割结果。在PASCAL VOC 2012训练集和测试集上的实验分别证明了算法的有效性和泛化能力。同时,本文方法可将其他前景分割方法作为基线,广泛用于对前景分割、弱监督语义分割等任务性能的提升。在未来工作中,将考虑引入多种不同类型语义、表观特征融合,并采用交替迭代的方式,挖掘图像内部空间上下文信息和不同图像间的共性表达特征,以实现更精准前景分割和语义分割。
使用Chrome浏览器效果最佳,继续浏览,你可能不会看到最佳的展示效果,
确定继续浏览么?
复制成功,请在其他浏览器进行阅读