0引言由于社交媒体的快速发展,整个世界几乎被数字视频所包围。同时,数字视频也对日常生活产生了巨大影响。图像和视频的视觉质量与用户的体验密切相关,是决定计算机视觉应用的重要因素之一(方玉明等,2021)。随着终端用户对视频质量要求的不断提高,视频质量评估(video quality assessment,VQA)已成为视频服务供应商关注的主要问题。众所周知,视频的平均主观分数(mean opinion score, MOS)的收集难度大、成本高。随着深度学习在各领域的成功应用,利用深度神经网络模拟人眼的视觉特性已成为VQA领域的一个重要研究课题。据Cisco的报告,2017年有75 % 的IP(internet protocol)流量用于视频,到2022年这一比例将会增长到82 % (Cisco, 2018)。这种增长趋势主要归因于各种新开发的视频应用程序以及用户沉浸式体验需求。同时,消费者对视频质量的要求越来越高。一种新的4 K格式(3 840 × 2 160像素或2 160 p)已被ITU-R BT.2020-2定义为超高清(ultra high definition,UHD)电视标准(ITU-R, 2015)。如今,随着大型显示器分辨率的增长、视频点播提供商(如YouTube、Netflix和亚马逊)能够提供4 K超高清视频内容,并且视频的细节和清晰度令人印象深刻(Sinno和Bovik,2019;Rafael等,2017)。UHD视频的主要优点侧重于质量,可以使用主观或客观方法进行评测。主观方法就是通过直接询问观众对其感知质量的意见。相比之下,客观方法考虑神经网络或数学模型来自动化评估视频质量。视频质量是UHD引入的主要驱动力。然而,至今用于对野生UHD视频进行质量评估的方法未见报道(Sinno和Bovik,2019)。一般来说,视频有两种不同类型的失真。一种是由某些后处理操作(如快速衰落、白噪声、压缩和高斯模糊等)人为引起的合成失真,这类失真明确定义了畸变的类型。例如,来自AVTVQDB-UHD-1(Rao等,2019)、YouTube-UGC(Wang等,2019)、CSIQ(Vu和Chandler,2014)、LIVE-VQA(Seshadrinathan等,2010)和相关数据集(Berger等,2015;van Wallendael等,2016)的视频是合成失真的结果。另一种是相机设备在捕获、处理和存储过程中固有的真实失真。DVL2021(Xing等,2022)、LIVE-VQC(Sinno和Bovik,2019)、KoNViD-1K(Hosu等,2017)和UVG-UHD视频集(Mercat等,2020)的每一个视频都是真实失真的,没有经过任何手动的后处理。真实失真的概念已在一些研究(Zhang等,2020, 2021;Sinno和Bovik,2019)中正式引入。随着深度学习的成功,大多数VQA算法通常需要在大量主观视频质量数据集上进行训练,以获得准确的模型,能够反映或复制人类的判断(Peng等,2019;Yuan和Wang,2019;Banitalebi-Dehkordi等,2021)。为此,研究人员已为VQA研究收集了一些视频数据集。例如,CSIQ数据集(Vu和Chandler,2014)包含12个原始的高质量视频及其具有6种失真类型的失真版本。CSIQ只是一个合成失真的数据集,视频序列不是UHD。LIVE VQA(Seshadrinathan等,2010)包括10个受到4种失真类型影响的原始视频,即MPEG-2压缩、H.264压缩、受IP影响的H.264比特流和无线数据包丢失。此数据集也不属于真实失真的数据集,因此在应用于真实的VQA场景时会导致效率低。AVTVQDB-UHD-1(Rao等,2019)使用3种不同的视频编解码器进行编码,即H.264、HEVC(high efficiency video coding,HEVC)和VP9,然后对这些压缩和降级视频进行测试MOS,其MOS的分布区间为[1.0,5.0]。作为UHD-VQA领域的首次尝试,Xing等人(2022)开发了第1个用于研究真实失真的UHD-VQA野生视频数据集(命名为DVL2021)。DVL2021共包含206个4 K UHD视频,标注有5等级MOS。每个视频序列固定为50帧/s,以10位深度和4 ∶ 2 ∶ 0 YUV格式存储,持续时间为10 s。在收集DVL2021时,考虑了各种类型的拍摄、不同的场景以及空间/时间信息。根据ITU-R BT.500-13(ITU-R. 2012)推荐的电视图像质量主观评价方法,所有视频序列均由32名受试者评测,在DVL2021上测试5种主流VQA方法。基准结果表明,数据集为UHD视频的质量评估提供了有价值的材料。首先,由于分辨率高以及大量的位流,采用众包方法收集UHD视频质量数据集不切实际。主观质量评估需要严格的实验室环境。由于这些限制,DVL2021成为国际上第1个野生UHD-VQA数据集,但规模相对较小(仅206个样本)。其次,从客观质量评估来看,由于缺乏大规模数据集,现有的深度网络模型在评估野生UHD视频时表现不佳。因此,为野生UHD-VQA设计有效的深度神经网络是一个一直未解决且至关重要的问题。由于超高清视频分辨率高、边缘细节清晰度高,因此在边缘处更容易引起失真,所以本文提出的边缘加强方法能特别适用超高清视频的质量评估。同时由于引入了内容依赖和时域迟滞特性,因此,提出的方法也同时适用其他野生视频的质量评估。本文提出了一种适用UHD视频的无参考VQA(no-reference video quality assessment,NR-VQA)方法,该方法基于人类视觉系统(human visual system,HVS)3个显著特征进行建模,包括边缘掩蔽、内容依赖和时间记忆效应。对于边缘掩蔽,本文首先使用Canny算子检测每个视频帧的边缘图像,然后将检测到的边缘图像和原始视频帧都送到双流ResNet进行内容依赖性特征提取。最后,采用门控循环单元(gated recurrent unit,GRU)网络和主观激励的时间池化层来计算时间记忆效应。在UHD和几个基准视频质量数据集上进行了多个实验,结果表明,本文提出的方法在SROCC (Spearman rank order correlation coefficient)和PLCC(Pearson linear correlation coefficient)指标上都优于现有方法。1相关工作及背景通常,失真包括自然的真实失真和人工的合成失真。真实失真是在拍摄过程中由于曝光不足、过度曝光或欠曝、拍摄者运动导致的模糊以及压缩误差等自然失真的混合。合成失真是指由人工添加的诸如白噪声、高斯模糊、JPEG2000、椒盐噪声以及全局对比度降低等引起的失真。无论是真实失真还是合成失真都广泛出现在视频中。因此,开发一种可以针对任意类型的视频质量评估方法具有重要意义。Li等人(2019)利用人类视觉系统中的内容依赖及时间迟滞效应,对卷积层顶层输出的语义特征进行全局平均池化和全局标准差池化,得到每一个视频帧的特征。之后利用门控循环单元(GRU)对视频进行长期依赖建模,最后通过一个可微分的主观时间池化层得到视频的最终分数。朱泽等人(2020)基于卷积神经网络和循环神经网络并结合注意力机制,提出了一种无参考视频质量评价算法。Li等人(2019)将视频每一帧都直接放入深度学习网络中提取特征,没有通过一定的预处理,使后续网络提取的特征不够全面,导致性能降低。泽等人(2020)在建立短期模型时,为了量化帧间的变化,使用了光流的方法来描述物体的运动。但光流的计算量非常大,在平衡运算量之后精度仍然不理想。NR-UVQA模型(宋巍等,2020)从视频图像特征、视频运动特征和编码参数3个方面出发,分析不同特征对视频质量的影响,将对视频质量影响较大的特征作为质量评价指标输入线性模型。Tu等人(2021)建议在较粗的水平上对无参考VQA(NR-VQA)使用2进制和顺序分类。Wu等人(2021)开发了一种基于语义信息的NR-VQA。Mitra等人(2021)使用卷积神经网络(convolutional neural network,CNN)预测空间和时间熵差异,可以有效捕获时空中的视频失真。Zhang等人(2019)发现,观察者之间的时空不一致性对主观质量评估结果的可靠性有重大影响。Galkandage等人(2021)通过模拟HVS响应,开发了一种新的全参考立体视频质量度量方法,该研究表明了HVS具有许多独特的特性,如纹理掩蔽、内容依赖和时域记忆效应。特别地,纹理掩蔽是指人们更容易忽略图像纹理区域中的失真。这种影响已在现有的VQA工作中得到利用。例如,Ma等人(2013)使用纹理掩蔽提取空间信息变化来构建VQA模型。Gunawan和Ghanbari(2008)开发了一种使用纹理掩蔽的简化VQA方法。对于时间记忆效应,研究(Ghadiyaram等,2018)表明,在判断视频质量时,个体更容易受到之前质量较低的帧的影响。如何有效地对HVS的特性进行建模,对于解决VQA问题非常有帮助。在当前的视频质量评估的研究中,未见关于野生UHD视频的质量评估方法的报道。2提出的边缘掩蔽VQA方法本文方法包含边缘信息检测、特征提取和时间迟滞3个模块。2.1边缘信息检测模块边缘信息检测模块如图 1所示。本模块的任务是根据输入的视频,得到每一帧图像的边缘图像,具体步骤如下: 图1 边缘信息检测模块 Edge detection moduleFig 11) 将视频帧拆分为R、G、B三通道的图像。具体地,将每一视频帧由RGB图像${\boldsymbol{F}}$拆分为对应的R、G、B三通道图${\boldsymbol{F}}_\text{R}$、${\boldsymbol{F}}_\text{G}$和${\boldsymbol{F}}_\text{B}$即 1 $F(x, y)=F_{\mathrm{B}}(x, y)+F_{\mathrm{G}}(x, y)+F_{\mathrm{R}}(x, y)$ 式中,$F$ ($x$, $y$)表示原图像(视频帧)${\boldsymbol{F}}$中坐标为($x$, $y$)的像素点,$F_\text{B}$($x$, $y$)、$F_\text{G}$($x$, $y$)和$F_\text{R}$($x$, $y$)分别表示原图像(视频帧)${\boldsymbol{F}}$在($x$, $y$)点上的蓝(B)、绿(G)、红(R)三通道像素点的数值。2) 通过Canny算子将上述三通道图像进行转换,得到每一通道视频帧的边缘图然后合并它们。首先需对输入的三通道图像进行高斯模糊,以减少图像上明显噪声对结果的影响。之后使用边缘检测Canny算子来检测图像的水平、垂直和对角边缘,返回水平和垂直方向上的一阶导数值$G_{x}$和$G_{y}$,以确定像素点的梯度$G$和方向$θ$。具体为 2 $G=\sqrt{G_x^2+G_y^2}$ 3 $ \theta=\arctan \frac{G_y}{G_x} $ 接下来,对像素点进行非极大值抑制。具体来说,将当前像素的梯度强度与沿正负梯度方向上的两个像素进行比较。如果当前像素的梯度强度与另外两个像素相比更大,则该像素点保留为可能存在的边缘点,否则该像素点将被抑制为非边缘点。将梯度分为8个方向,如图 2所示,分别表示为东(E)、南(S)、西(W)、北(N)、东南(SE)、西南(SW)、东北(NE)和西北(NW), 其中,0代表 0°~45°,1代表 46°~90°,2代表-90°~-46°,3代表-45°~0°,像素点$P$对应的梯度方向为$θ$,则像素点$P_\text{1}$和$P_\text{2}$ 的梯度线性插值为 4 $\tan (\theta)=\frac{G_y}{G_x}$ 5 $G_{P_1}=(1-\tan (\theta)) \times E+\tan (\theta) \times N$ 6 $G_{P_2}=(1-\tan (\theta)) \times W+\tan (\theta) \times S$ 图2 8个方向的边缘梯度 Edge gradient of eight directionsFig 2通过式(2)(3)可以求得E,N,W,S这4个方向的梯度值$E, N, W, S$,然后代入式(4)(5)(6)可以求出经过非极大抑制后的像素点$G_{P_1}$和$G_{P_2}$。若$G_{P}$$G_{P_1}$并且$G_{P}$$G_{P_2}$,那么这个像素点P可能是边缘点,然后利用双阈值确定最终的边缘点。当$G_{P}$大于等于上阈值时,认为是强边缘;当$G_{P}$大于等于下阈值并且小于上阈值时,认为是弱边缘;当$G_{P}$小于下阈值时,认为不是边缘点。通过实验,设置上下阈值分别为140和5时效果最佳。最后通过合并一帧视频的RGB三通道边缘图即可得到最终的一帧视频边缘图${\boldsymbol{L}}$。即 7 $L(x, y)=L_{\mathrm{B}}(x, y)+L_{\mathrm{G}}(x, y)+L_{\mathrm{R}}(x, y)$ 2.2特征提取模块特征提取模块如图 3所示。研究表明,人对一幅图像或视频的满意度会受图像或视频内容的影响。本模块的任务是根据边缘信息检测模块得到的边缘图以及原始图经过深度学习网络分别提取出边缘特征以及内容依赖特征,将以上两部分特征经过全局平均池化和全局标准差池化后合并得到一帧图像的特征,方便后续的训练。具体步骤如下: 图3 特征提取模块 Feature extraction moduleFig 31) 特征提取。假设视频共有$T$帧,将$T$幅原始帧放入深度神经网络,得到每一帧图像的内容依赖特征$\boldsymbol{M}_{t 1}$,同时将$T$幅边缘图放入另一个网络参数完全一样的双流网络,得到每一帧图像的边缘特征$\boldsymbol{M}_{t 2}$。即 8 $\boldsymbol{M}_{t 1}=C N N(\boldsymbol{F})$ 9 $\boldsymbol{M}_{t 2}=C N N(\boldsymbol{L})$ 式中,$\boldsymbol{F}$表示视频原始帧,$\boldsymbol{L}$为第2.1节转换的边缘图,$CNN$为卷积神经网络。2) 池化并合并特征。对步骤1)得到的深层语义特征进行全局平均池化$GP_\text{mean}$和全局标准差池化$GP_\text{std}$降维后,通过合并函数($Concat$)得到每一帧图像的特征${\boldsymbol{V}}_{t}$。具体为 10 $\begin{aligned}\boldsymbol{V}_{\text {mean }}^{t 1} & =G P_{\text {mean }}\left(\boldsymbol{M}_{t 1}\right) \\\boldsymbol{V}_{\text {std }}^{t 1} & =G P_{\text {std }}\left(\boldsymbol{M}_{t 1}\right) \\\boldsymbol{V}_{\text {mean }}^{t 2} & =G P_{\text {mean }}\left(\boldsymbol{M}_{t 2}\right) \\\boldsymbol{V}_{\text {std }}^{t 2} & =G P_{\text {std }}\left(\boldsymbol{M}_{t 2}\right) \\\boldsymbol{V}_t={Concat} & \left(\boldsymbol{V}_{\text {mean }}^{t 1}, \boldsymbol{V}_{\text {std }}^{t 1}, \boldsymbol{V}_{\text {mean }}^{t 2}, \boldsymbol{V}_{\text {std }}^{t 2}\right)\end{aligned}$ 2.3时间迟滞模块时间迟滞模块如图 4所示。视频质量评估问题中存在长期依赖关系。通俗地说,人们习惯于记住过去质量差的帧,即使当前的视频帧质量已经恢复到可接受的水平,也会降低对当前帧和后续帧的期望。本模块的任务是通过引入一个门控循环单元(GRU)建立视频的长期依赖,之后再利用一个线性函数将过去帧和后续帧对视频质量的影响组合起来得到最终的视频分数。具体步骤如下: 图4 时间迟滞模块 Temporal memory moduleFig 41) 建立长期依赖。将上一部分得到的特征经过一个全连接层(fully connected,FC)降维去除冗余信息后放入GRU中建立长期依赖,得到帧级质量$q_t$,即 11 $q_t=F C\left({GRU}\left(F C\left(\boldsymbol{V}_t\right), {GRU}\left(F C\left(\boldsymbol{V}_{t-1}\right)\right)\right)\right)$ 2) 得到视频分数。首先定义记忆质量元素$x_t$为视频当前帧$t$的前$τ$帧中质量最差帧的分数,即 12 $x_t= \begin{cases}q_n & n=1 \\ \min q_k & k \in \boldsymbol{V}_{\text {pre }}, n1\end{cases}$ 式中,$\boldsymbol{V}_{\mathrm{pre}}=\{\max (1, t-\tau), \cdots, t-2, t-1\}$表示前$τ$帧的取值集合,$q_n$表示第$n$帧的帧质量。之后本文定义当前质量元素$y_t$,使用加权质量分数给当前帧之后$τ$帧中质量较差的帧分配更多的权重,本文使用softmin函数确定权重$W_t^k$。具体为 13 $y_t=\sum\limits_{k \in V_{\text {next }}} q_k W_t^k$ 14 $W_t^k=\frac{\mathrm{e}^{-q_k}}{\sum\limits_{j \in V_{\text {next }}} \mathrm{e}^{-q_j}}, k \in \boldsymbol{V}_{\text {next }}$ 式中,$\boldsymbol{V}_{\text {next }}=\{t, t+1, \cdots, \min (t+\tau, T)\}$表示后$τ$帧的取值集合,$T$表示一个视频序列中总的视频帧数。本文将记忆质量元素和当前质量元素进行线性组合得到主观帧质量分数$q_t^{\prime}$,最后对主观帧质量分数取平均值,得到最终的视频质量分数$Q$。即 15 $q_t^{\prime}=\beta x_t+(1-\beta) y_t$ 16 $Q=\frac{1}{T} \sum\limits_{t=1}^T q_t^{\prime}$ 式中,$β$是一个平衡当前质量元素和记忆质量元素的超参数,代表当前质量元素和记忆质量元素对最终视频分数的影响大小。3实验结果及分析 3.1实验设置本文的网络建立在Pytorch框架之上,在配备4块Tesla P100 GPU的机器上进行训练。在网络中,采用L1损失函数,优化器采用Adam,初始化学习率为10-5。本文方法与两个因素($τ$和$β$)密切相关,当改变这两个参数的值时,不同数据集上的性能会发生变化。为了获得良好的性能,本文方法取两者的最优值参数,如表 1所示。 表1 不同数据集的实验设置 数据集 减小量 隐藏量 批数量 $τ$ $β$ KoNViD-1K 248 64 16 44 0.52 DVL2021 192 52 38 68 0.5 LIVE-Qualcomm 248 64 16 54 0.4 LSVQ 208 56 20 20 0.5 Setup of different datasetsTable 13.2数据集介绍在本文实验中,测试了4个典型的野生视频质量评估数据集,分别是KoNViD-1K(Hosu等,2017)、DVL2021(Xing等,2022)、LIVE-Qualcomm(Ghadiyaram等,2008)和LSVQ(Ying等,2021)。KoNViD-1K有1 200个被标注的视频,样本具有相同的分辨率,质量分处于[0.0, 5.0]范围内。DVL2021有206个样本,样本具有相同的分辨率,质量分分布在[0.0,5.0]范围内。LIVE-Qualcomm的样本也是具有固定的分辨率,样本总数是208,其MOS分布在[0.0,100.0]范围内。LSVQ样本总量达到39 075,数据集中的样本具有不固定的分辨率,其MOS分分布在[0.0,100.0]范围内。按照惯例,数据集中的80 % 样本用于训练,剩下的20 % 用于测试。本文的实验结果都是在10次运行中取平均值。3.3对比方法介绍为了验证所提方法的性能,选择5种主流VQA方法进行实验比较。包括BRISQUE(Mittal等,2012)、V-BLIINDS(Saad等,2014)、TLVQM(Korhonen,2019)、VSFA (Li等,2019)和PVQ(Ying等,2021)。3.4单个数据集上的性能比较4个数据集的整体性能比较如表 2所示。从表 2可以看出,与5种主流方法相比,本文方法在所有4个基准数据集上都表现最好。例如,在KoNViD-1K数据集上,对SROCC和PLCC指标,比较PVQ,本文方法获得3.92 %和3.94 % 的提升。在DVL2021中,SROCC为0.788,PLCC为0.789;在LSVQ中,SROCC为0.832,PLCC为0.829。 表2 不同网络在不同数据集上的性能比较 网络 KoNViD-1K DVL2021 LIVE-Qualcomm LSVQ SROCC PLCC SROCC PLCC SROCC PLCC SROCC PLCC BRISQUE 0.654 0.626 - - 0.504 0.516 0.579 0.576 V-BLIINDS 0.695 0.658 - - 0.566 0.568 - - TLVQM 0.773 0.769 0.751 0.788 0.780 0.810 0.772 0.774 VSFA 0.755 0.744 0.756 0.772 0.737 0.732 0.801 0.796 PVQ 0.791 0.786 - - - - 0.827 0.828 本文 0.822 0.817 0.788 0.789 0.811 0.812 0.832 0.829 Performance comparison of different methods on different datasetsTable 2 加粗字体表示各列最好性能,“-”表示相关数据不可用。图 5给出了在4个数据集上的散点图。图中横轴代表的是测试样本的标注分数,纵轴代表的是预测的分数。红色的直线是参考线。点离红色的线越近,表示预测的结果越好。从图 5中可以看出,本文设计的网络预测的分数都非常靠近红色的参考线。 图5 在不同数据集上的散点图 Scatter plot on different datasetsFig 5((a) KoNViD-1K; (b) DVL2021; (c) LIVE-Qualcomm; (d) LSVQ) 为了可视化预测效果,图 6给出了在3个数据集上随机取出的4个视频,并将人类主观评价分与本文方法预测值进行比较。从图 6中可以看出,预测分与参考分基本一致。 图6 测试视频的人类主观评价分与本文方法预测值的比较 Comparison between MOS and predicted values by the proposed methodFig 63.5交叉验证为了证明本文方法的泛化性能,与VSFA方法进行了跨数据集实验,结果如表 3所示。可以看出,在12个跨数据集测试中,本文方法在10个跨数据集测试上的性能优于其对比方法,仅对于交叉KoNViD-1K和LIVE-Qualcomm测试,本文方法表现不是最优。原因主要是:1)利用的边缘特征,本文方法不适合这两个交叉数据集;2)LIVE-Qualcomm仅包含208个1 920 × 1 080像素分辨率的视频,而KoNViD-1K包含1 200个960 × 540像素分辨率的视频。分辨率的主要区别和样本数量可能会对边缘信息的提取产生负面影响。 表3 在不同数据集上的交叉验证结果 训练数据集 测试数据集 VSFA 本文方法 SROCC PLCC SROCC PLCC KoNViD-1K DVL2021 0.628 0.621 0.722 0.718 LIVE-Qualcomm 0.557 0.577 0.520 0.566 LSVQ 0.442 0.481 0.513 0.548 DVL2021 KoNViD-1K 0.575 0.564 0.601 0.612 LIVE-Qualcomm 0.326 0.372 0.337 0.381 LSVQ 0.290 0.301 0.337 0.329 LIVE-Qualcomm KoNViD-1K 0.664 0.612 0.592 0.589 DVL2021 0.535 0.561 0.555 0.576 LSVQ 0.386 0.408 0.391 0.416 LSVQ KoNViD-1K 0.784 0.794 0.796 0.805 DVL2021 0.744 0.742 0.784 0.766 LIVE-Qualcomm 0.616 0.646 0.623 0.653 Cross-dataset validation resultsTable 3 加粗字体表示各交叉验证中的最优结果。3.6消融实验为了证明本文引入的边缘信息模块的有效性,进行消融实验,实验结果如表 4所示。从表 4可以看出,与不使用边缘信息的方法相比较,本文方法性能更好,原因是边缘信息可以很好地训练匹配纹理遮蔽的特性,从而大幅提升了性能。 表4 边缘信息的消融实验结果 是否采用边缘信息 KoNViD-1K DVL2021 LIVE-Qualcomm LSVQ PLCC SROCC PLCC SROCC PLCC SROCC PLCC SROCC 否 0.755 0.744 0.880 0.885 0.737 0.732 0.801 0.796 是 0.822 0.817 0.788 0.789 0.811 0.812 0.832 0.829 Results of ablation study on edge informationTable 4 加粗字体表示各列最优结果。4结论针对超高清视频分辨率高、边缘细节清晰以及更容易在边缘处引入较大失真的特点,提出了边缘加强的新方法对超高清视频的质量进行评估。同时引入了内容依赖和时域迟滞特性,联合解决超高清视频质量评估问题。新方法充分利用了HVS的特性,主要创新之处在于边缘掩蔽被独特地用于建模HVS。为了检测视频帧的边缘信息,本文使用Canny算子并找到了其最佳设置。此外,为了适应不同的视频数据集,所提方法通过实验获得了最佳的训练参数。为了验证本文方法的有效性,本文进行了大量实验,分别测试了包括超高清在内的4个视频质量评估数据集。与性能最好的方法进行对比,本文方法性能提升最高达到10.0 %,最少的性能提升也有0.1 %。这些实验结果表明,边缘信息可以极大地提高VQA方法的性能。本文为HVS的建模提供了新的线索。未来,将针对NR-VQA问题研究更多的HVS特性,结合超高清视频的特点,更好地拟合人眼视觉特性,获得更好的性能。
使用Chrome浏览器效果最佳,继续浏览,你可能不会看到最佳的展示效果,
确定继续浏览么?
复制成功,请在其他浏览器进行阅读