Print

发布时间: 2022-04-16
摘要点击次数:
全文下载次数:
DOI: 10.11834/jig.200642
2022 | Volume 27 | Number 4




    图像分析和识别    




  <<上一篇 




  下一篇>> 





着装场景下双分支网络的人体姿态估计
expand article info 吕中正1, 刘骊1,2, 付晓东1,2, 刘利军1,2, 黄青松1,2
1. 昆明理工大学信息工程与自动化学院,昆明 650500;
2. 云南省计算机技术应用重点实验室,昆明 650500

摘要

目的 人体姿态估计旨在识别和定位不同场景图像中的人体关节点并优化关节点定位精度。针对由于服装款式多样、背景干扰和着装姿态多变导致人体姿态估计精度较低的问题,本文以着装场景下时尚街拍图像为例,提出一种着装场景下双分支网络的人体姿态估计方法。方法 对输入图像进行人体检测,得到着装人体区域并分别输入姿态表示分支和着装部位分割分支。姿态表示分支通过在堆叠沙漏网络基础上增加多尺度损失和特征融合输出关节点得分图,解决服装款式多样以及复杂背景对关节点特征提取干扰问题,并基于姿态聚类定义姿态类别损失函数,解决着装姿态视角多变问题;着装部位分割分支通过连接残差网络的浅层特征与深层特征进行特征融合得到着装部位得分图。然后使用着装部位分割结果约束人体关节点定位,解决服装对关节点遮挡问题。最后通过姿态优化得到最终的人体姿态估计结果。结果 在构建的着装图像数据集上验证了本文方法。实验结果表明,姿态表示分支有效提高了人体关节点定位准确率,着装部位分割分支能有效避免着装场景中人体关节点误定位。在结合着装部位分割优化后,人体姿态估计精度提高至92.5%。结论 本文提出的人体姿态估计方法能够有效提高着装场景下的人体姿态估计精度,较好地满足虚拟试穿等实际应用需求。

关键词

着装场景; 人体检测; 姿态估计; 语义分割; 姿态优化

Dual branch network for human pose estimation in dressing scene
expand article info Lyu Zhongzheng1, Liu Li1,2, Fu Xiaodong1,2, Liu Lijun1,2, Huang Qingsong1,2
1. Faculty of Information Engineering and Automation, Kunming University of Science and Technology, Kunming 650500, China;
2. Computer Technology Application Key Laboratory of Yunnan Province, Kunming 650500, China
Supported by: National Natural Science Foundation of China (61862036, 61962030, 81860318)

Abstract

Objective Human pose estimation aims at the human joints recognition and orientation in a targeted image of different scenes and the joint point positioning accuracy optimization. Current methods of human pose estimation have a good performance in some targeted dressing scenes where the visibility of body joints was constrained by occasional clothes wearing and failed in some complicated dressing scenes like fashion street shot. There are two main difficulties of human pose estimation in the dressing scene which result in the low accuracy of human body joints positioning and human pose estimation. One aspect is that various styles of clothes wearing leads to human body joints partially occluded and various texture and color information caused the failure of human joint point positioning. Another one is that there are various body postures in dressing scene. A method of dual branch network is required for human pose estimation in dressing scene. Method First, human detection is implemented on the input image to obtain the area of dressed human body. The pose representation branch and the dress part segmentation branch are segmented each. Next, to avoid the interference of the joint point feature extraction in the context of the variety of clothing styles and complex background, the multi-scale loss and feature fusion pose representation branch generate the joint point score map based on the stacked hourglass network. To overcome the problem of human pose with different angles of view in the dressing scene, the pose category loss function is harnessed based on pose clustering. Then, the dress part segmentation branch is constructed based on the shallow connection, deep features of the residual network and feature fusion performance based on the targeted label of dressed part to build the dressed part score map. At the end, in order to resolve the clothing occlusion of joints issue, the dress part segmentation result is used to constrain the position of human body joints, and the final human pose estimation is obtained for pose optimization. Result The illustrated method is validated on the constructed image dataset of the dressed people. Our demonstration show that the constructed pose representation branch improves the positioning accuracy of human body joints effectively, especially the introduced pose category loss function improved the robustness of multi-angles human pose estimation. In terms of the optimization integrated with the semantic segmentation of dressed parts, the estimation accuracy of human body pose is improved to 92.5%. Conclusion In order to handle low accuracy of human pose estimation derived from various clothing styles and various human body postures in dressing scene, a dual-branch network for human pose estimation is facilitated in dressing scene. To improve the positioning accuracy of human body joints, we construct pose representation model to fuse global and local features. A pose category loss is melted to improve the robustness of multi-view angles of human pose estimation. We integrate the semantic segmentation of dressed parts to constrain the position of human body joints which improves the accuracy of human body pose estimation in dressing scene effectively. The constructed image dataset of human dresses demonstrates that the proposed method can improve the estimation accuracy of human body pose in dressing scene. The clear estimation ratio of joint points reaches 92.5%. The estimation accuracy of the human pose is still low, especially in the occasion of dresses wear; overcoat and multi-layer clothes cover human body joints seriously. Meanwhile, it is required to improve the algorithm of the positioning accuracy of human body joints when people have bags and other accessories. The accuracy of human pose estimation is improved in multi-oriented dressing scenes further.

Key words

dressing scene; human detection; pose estimation; semantic segmentation; pose optimization

0 引言

单人姿态估计(Wang等,2020)是指识别和定位出输入图像中单个人体的关节点,广泛应用于姿态追踪、人机交互、行为识别以及虚拟试衣等领域。传统的单人姿态估计主要基于图结构模型,Ramanan(2006)将人体表示为多个部件,通过提取手工设定的图像特征解决关节匹配问题。Yang和Ramanan(2011)通过部件的几何形变和外观等信息构建混合部件模型,以约束各个部件的空间关系。代钦等人(2017)定义人体部位的遮挡级别,通过部位形变模型解决人体姿态估计的遮挡干扰问题。传统方法具有较好的时间效率,但受到人工语义标注的限制,很难扩展到背景复杂和人体姿态变化大的场景。为解决以上问题,很多研究工作使用基于深度卷积神经网络方法,通过提取更为丰富的深度卷积特征,解决复杂背景下的人体姿态估计精度低的问题。Toshev和Szegedy(2014)最早将深度卷积神经网络运用于人体姿态估计,采用多阶段回归的思路设计卷积神经网络,以关节点坐标为优化目标,回归输出人体关节点坐标,最终获得准确的人体关节点坐标位置。Tompson等人(2015)改进了已有的回归网络模型,采用逐像素的关节点热图检测代替关节点坐标回归,有效提高了关节点定位的鲁棒性。这些方法极大地促进了深度卷积神经网络在人体姿态估计任务上的应用。

随着网上购物的普及,在线服装购物受到极大欢迎,许多研究者投入到服装分类、服装检索以及虚拟试衣等服装分析领域。Liu等人(2016)提出大型时尚着装数据集DeepFashion用于服装分类和检索。Ge等人(2019)在DeepFashion基础上提出DeepFashion2用于服装检测和识别、分割、检索以及姿态估计等更为全面的任务。这些任务不仅面向大量着装场景下的图像数据集,亦需关注以人为中心的着装图像区域。而着装场景下的人体姿态估计不仅可以精确估计出每个着装图像的人体姿态,同时可以为虚拟试衣、服装推荐和服装检索等服装分析领域提供人体姿态的先验信息。

已有的人体姿态估计方法侧重人体穿着简单的场景,如马克斯普朗克计算机科学研究所(Max Planck Institut Informatik,MPII)人体姿态数据集(Andriluka等,2014)中图像主要为运动、会议以及娱乐等场景,通常这些场景中服装款式单一、服装对人体关节点的遮挡较少。区别于其他场景,着装场景更关注人体穿着服饰的多样性,具有以下特点:1)着装人体图像多来源于时尚街拍,背景更具有多样性和复杂性;2)着装人体姿态多样和视角位置多变;3)人体穿着款式不一且对关节点遮挡的服饰众多、服装纹理以及颜色多样。已有的着装场景下人体姿态估计方法主要有基于着装标签的姿态重定义方法(Yamaguchi等,2012)以及深度学习方法(Marras等,2017),但仍不能有效实现着装场景下的人体姿态估计。目前,着装场景下的单人姿态估计仍然存在以下难点:1)丰富多样的图像背景内容以及人体穿着服饰纹理、颜色信息会对人体姿态估计特征提取造成严重干扰,需提高人体关节点特征提取的准确率;2)多变的人体姿态和视角位置,使人体姿态估计网络学习变得困难,需构造适合学习多变姿态和视角位置信息的姿态估计网络模型,以提高人体姿态估计的鲁棒性;3)着装人体姿态可见性受到人体穿着服饰的干扰,导致人体姿态估计时存在关节点误定位问题,需结合着装语义部位,以提高人体姿态估计的精度。

因此,本文以着装场景下的时尚街拍图像为例,提出结合姿态表示和部位分割的双分支网络,实现着装场景下高精度的单人姿态估计。本文方法流程如图 1所示,主要贡献如下:1)通过在堆叠沙漏网络的基础上增加多尺度损失与特征融合,构建着装姿态表示分支网络,以学习关节点的局部和全局特征,解决着装图像多样的背景和人体穿着服饰对关节点特征提取的干扰,增强关节点的定位精度;2)基于对着装图像数据集中着装人体姿态聚类得到的姿态模板,定义姿态类别损失函数,并结合欧氏距离损失函数构造姿态表示分支的多尺度损失,提高网络对着装人体姿态变化和不同视角下人体姿态估计的鲁棒性;3)融合残差网络的深层、浅层特征构建着装部位分割分支网络,使用着装部位分割信息对人体关节点定位进行约束,最后通过姿态优化,提升人体姿态估计时关节点的定位精度。

图 1 着装场景下人体姿态估计方法流程图
Fig. 1 The whole framework of human pose estimation in dressing scene

1 相关工作

目前,基于深度卷积神经网络的单人姿态估计方法取得了较大进展。Wei等人(2016)构建多阶段级联的顺序化卷积结构学习关节点空间信息和纹理信息,通过累加所有阶段的响应图将置信度最大的点作为关节点位置实现关节点的精确定位。Newell等人(2016)提出堆叠沙漏网络,每个沙漏模块将特征进行多次下采样和上采样,并将下采样与上采样过程中大小相同的特征融合,不仅获得了不同尺度的关节点特征,同时降低了模型的计算量。后续很多研究工作将沙漏网络作为高效的基础性网络架构。Yang等人(2017)基于沙漏模块增加金字塔残差模块,采用多分支网络对输入特征进行下采样,得到大小不同的特征图,再进行上采样合并到同一尺度,提高模型的尺度不变性。Tang等人(2018)以5个沙漏模块为主干网络,通过将关节点分为低级、中级和高级的组合方式解决单人姿态估计中图像低分辨率模糊问题。

多尺度特征可同时学习丰富的空间和语义信息,有效增强人体姿态估计模型的学习能力。Chen等人(2018)将网络分为全局网络和精确网络两个阶段,全局网络采用基于特征金字塔网络获得多尺度特征并预测简单可见的关节点,精确网络融合多尺度特征预测困难的关节点。Xiao等人(2018)采用反卷积的方式从低分辨率特征图中恢复高分辨率特征图,结合网络每个尺度特征输出关节点热图。Ke等人(2018)通过多尺度特征融合加强人体关节点语义部位特征的学习。Sun等人(2019)提出保持高分辨率特征,并行连接多分辨率子网络,通过多次多尺度特征融合提高关节点定位精度。杨兴明等人(2019)构建多层模型学习不同尺度的结构特征,并通过串联初始特征解决混杂背景的干扰问题。Li等人(2020)在沙漏网络基础上增加多尺度特征并结合注意力机制生成高质量关节点热图。受该方法的启发,本文在堆叠沙漏网络的基础上提出增加多尺度损失与特征融合。与该方法不同的是,本文通过姿态聚类构建姿态类别损失函数,并与均方误差损失函数结合,以提高关节点的定位精度。

人体部位语义分割作为与人体姿态估计高度相关的任务,得到的人体语义部位不仅可以将人体关节点约束在特定的部位区域,亦能辅助人体关节点归类。Yamaguchi等人(2012)从两个不同方向分析了服装和姿态的关系,提出使用每个位置附近解析标签的归一化直方图作为精确姿态估计的附加特征。Ladicky等人(2013)通过对身体部位的语义分割获得人体关节点的外观和形状信息。Dong等人(2014)利用网格布局特征对语义部位和混合关节组模板之间的成对几何关系建模,并构造and-or图同时估计关节定位和语义标签。Nie等人(2018)通过设计解析诱导学习器学习姿态模型的动态参数,提取有用的互补解析特征以提高人体姿态估计精度。Liang等人(2019)采用联合细化网络,联合人体解析中间结果用于细化人体姿态估计结果。上述方法在利用人体部位语义分割结果促进人体姿态估计任务上取得了较好成果,但忽视了人体穿着多变对关节点可见性的影响,不能有效利用人体着装部位构建与人体关节点的位置约束关系。

Xia等人(2017)联合解决人体部位语义分割和人体姿态估计两个任务,通过人体部位语义分割限制人体姿态定位的变化。针对着装场景下的人体穿着多变导致人体姿态估计精度低问题,受Xia等人(2017)方法的启发,本文构建了包含着装姿态表示和着装部位分割的双分支网络。着装姿态表示分支引入姿态类别损失函数,通过多尺度损失与特征融合增强关节点的局部与全局特征,得到初步的人体姿态估计结果。着装部位分割分支融合残差网络的深层、浅层特征输出着装部位分割信息,基于人体关节点作为相邻着装部位的连接点思想构建部位关节平滑项,以约束人体关节点定位,最后通过姿态优化得到精确的人体姿态估计结果。

2 双分支网络

本文通过对输入的着装图像进行人体检测(He等,2017),得到着装人体区域,分别输入到着装姿态表示和着装部位分割分支。

2.1 着装姿态表示

2.1.1 姿态聚类

区别于其他场景的人体姿态,着装场景下的人体姿态具有姿态多样以及视角位置多变的特殊性,导致人体姿态估计网络学习变得困难。本文通过对着装人体姿态聚类得到姿态模板,以表示着装场景下的各类人体姿态。

将着装图像数据集中的着装人体姿态定义为一个向量列表,使用向量$\boldsymbol{P}=\left(\boldsymbol{C}_{1}, \boldsymbol{C}_{2}, \cdots, \boldsymbol{C}_{m}\right) \in {\bf{R}}^{m \times 3}$表示一个人的关节点集合。其中,$\boldsymbol{C}_{i}=(x, y, v) \in {\bf{R}}^{3}$是一个3维向量,$x, y$表示一个关节点的坐标位置,$v$表示该关节点是否遮挡,$m$表示一个人的关节点总数。由于着装人体姿态包含不同视角信息,为此,参照LSP(leeds sports pose)数据集(Johnson和Everingham,2010)关节点类型设定,定义关节点总数为14,包含头顶关节、颈关节、左/右肩关节、左/右肘关节、左/右腕关节、左/右髋关节、左/右膝关节以及左/右踝关节。

首先,对训练集中已标注的姿态信息和人体边界框信息的图像进行预处理。1)利用人体边界框标注裁剪出人体感兴趣区域(region of interest,RoI),并使用姿态坐标信息将人体置于ROI的中心;2)为了便于姿态坐标归一化,将ROI的大小调整到64×64像素;3)由于包含有效关节点较少的姿态不具备代表性,并且在聚类的过程中会成为坏点,因此,仅将数据集图像中包含大于8个有效关节点的着装姿态进行聚类。

然后,采用K-means聚类方法(Zhang等,2019)进行优化。具体为

$ \mathop {\arg \min}\limits_{\boldsymbol{S}} \sum\limits_{i=1}^{k} \sum\limits_{P \in \boldsymbol{S}_{i}} {Dist}\left(P, P_{\mu i}\right) $ (1)

式中,$\boldsymbol{S}$表示$k$个姿态类别的集合$\left\{\boldsymbol{S}_{1}, \boldsymbol{S}_{2}, \cdots, \boldsymbol{S}_{k}\right\}$$P$表示数据集中标注的姿态,$P_{\mu i}$表示每类姿态集合$\boldsymbol{S}_{i}$中的姿态平均值。$Dist$(·)定义了两个人体姿态的距离,计算式为

$ {Dist}\left(P, P_{\mu i}\right)=\sum\limits_{j=1}^{m}\left\|\boldsymbol{C}_{j}-\boldsymbol{C}_{\mu i j}\right\|^{2} $ (2)

式中,$m$表示14类人体关节点,$\boldsymbol{C}_{\mu i j}$表示第$j$类关节点位置集合的平均值,$\boldsymbol{C}_{j}$表示第$j$个关节点的位置,具体定义为

$ \boldsymbol{C}_{j}= \begin{cases}(x, y, 2) & \boldsymbol{C}_{j} \text { 未遮挡 } \\ (x, y, 1) & \boldsymbol{C}_{j} \text { 遮挡 } \\ (0.5, 0.5, 0) & \boldsymbol{C}_{j} \text { 不在图像中 }\end{cases} $ (3)

式中,$x$$y$表示关节点在图像中的像素位置。

最后,将训练集中已标注的多个姿态信息$\left(P_{1}, P_{2}, \cdots, P_{n}\right)$聚类成$k$$(k \leqslant n)$个类别的姿态集合。

聚类后,使用每个姿态类的平均值$P_{\mu i}$构成姿态模板,并将$P_{\mu i}$$v$>0.5的关节点设置为有效关节点,最后的姿态模板为$P_{\mu i}$中有效关节点的组合。图 2给出了本文训练集中不同$k$值的聚类结果。其中,$k$= 2时,聚类结果为半身和全身的姿态模板;$k$= 3时,聚类结果为半身、全身正面以及全身背面的姿态模板;$k$= 4时,聚类结果为半身、全身正面、全身背面、侧面的姿态模板;$k$= 5时,引入了左、右侧面姿态模板;当$k$≥6时,重复增加了右侧面姿态模板,在视角位置产生冗余。因此,最终确定$k$= 5的姿态聚类模板。姿态模板可为人体姿态估计网络提供有效的姿态结构先验信息。由于不同的姿态模板表示各类着装场景下的人体姿态,且本文最终确定的姿态模板数为5,因此通过softmax损失将姿态类别损失函数定义为

$ L_{\text {pose_cluster }}=-\sum\limits_{k=1}^{5} \boldsymbol{P}_{k} \log S_{k} $ (4)

图 2 着装人体姿态聚类模板
Fig. 2 The clustering templates of dressed human pose

式中,$\boldsymbol{P}_{k}$是一个1×5的向量,该向量的大小取决于姿态模板的类别数,$S_{k}$表示该图像中的人物属于第${k}$种姿态模板的概率。

2.1.2 多尺度损失及特征融合

单人姿态估计中由于关节点定位不准确会导致关节点的错误拼接,本文通过增加多尺度损失与特征融合学习关节点多尺度的深度特征,增强人体关节点定位精度。为此,在每个沙漏模块1/16、1/8、1/4、1/2的4个反卷积层增加损失监督,如图 3所示。

图 3 多尺度损失及特征融合
Fig. 3 Multi-scale loss and feature fusion

为减少原始图像直接输入沙漏网络耗占的显存资源,在图像输入姿态表示分支时进行卷积和最大池化操作,将每个输入图像的分辨率调整至64×64像素;再使用1×1卷积核对4个尺度的特征图进行降维操作,在每个尺度得到与关节点数量相同的特征图维度;最后将关节点真值热图与预测的热图在对应尺度下进行误差计算,这里关节点真值热图大小调整至64×64像素,进而下采样至1/16、1/8、1/4和1/2尺度,并通过1×1卷积将对应尺度下反卷积层输出的特征预测为关节点热图。

数据集图像中关节点真值热图的生成参照堆叠沙漏网络(Newell等,2016),以关节点位置$(x, y)$为中心,使用2维高斯函数生成第$m$个关节点的真值热图$\boldsymbol{G}_{m}(x, y)$,标准差为1像素。为了提供有效的多尺度损失,本文将损失函数定义为每个尺度下的所有关节点热图的均方误差损失之和。因此,第$i$个尺度预测的所有关节点热图与对应尺度的真值热图损失函数定义为

$ L_{\text {layer }}=\frac{1}{M} \sum\limits_{m=1}^{M} \sum\limits_{x, y}\left\|\boldsymbol{P}_{m}(x, y)-\boldsymbol{G}_{m}(x, y)\right\|_{2} $ (5)

式中,$M$为14,表示预测的14个人体关节点,$\boldsymbol{P}_{m}(x, y)$$\boldsymbol{G}_{m}(x, y)$分别表示在像素位置$(x, y)$代表第$m$个关节的预测得分图和真值热图。

多尺度损失定义为

$ L_{\text {multi }}=\frac{1}{M} \sum\limits_{i=1}^{I} \sum\limits_{m=1}^{M} \sum\limits_{x, y}\left\|\boldsymbol{P}_{m}(x, y)-\boldsymbol{G}_{m}(x, y)\right\|_{2} $ (6)

式中,$I$为4,表示为沙漏模块4个不同的尺度,$i$表示第$i$个尺度。

为了给多尺度姿态估计网络提供有效的着装人体姿态先验信息,本文将姿态模板下采样至1/16、1/8、1/4和1/2尺度,并结合姿态类别损失函数,定义最终的联合损失函数为

$ L_{\text {multi }}^{*}=\sum\limits_{i=1}^{I}\left(L_{\text {layer }}^{i}+L_{\text {pose_cluster }}^{i}\right) $ (7)

式中,$L_{\text {layer }}^{i}$表示第$i$个尺度的均方误差损失函数,$L_{\text {pose_cluster }}^{i}$表示第$i$个尺度对应的姿态类别损失函数。

融合关节点多尺度特征能够更好地提高关节点定位的鲁棒性,为此基于多尺度损失在最后一个沙漏模块增加多尺度特征融合。采用上采样和concat操作,将4个尺度分别以×2、×4、×8、×16的倍率进行上采样,以融合原始特征。采用反卷积层将融合后的特征恢复到输入图像相同的尺寸,通过1×1卷积层输出像素级人体关节点得分图$\boldsymbol{P}_{j}$。通过对所有尺度的特征映射学习,可以全局优化关节点定位,进一步提高人体关节点的定位精度,有效避免关节点的错误拼接。

2.2 着装部位分割

精确的着装部位分割可以为人体姿态估计提供有效的着装部位信息,以增强关节点的定位精度。

基于全卷积网络的方法通常迭代地使用卷积和池化操作,降低了特征映射的分辨率,丢失了更精细的图像信息,导致语义部位分割结果不准确。Ruan等人(2019)提出采用低层特征补偿可引入高分辨率的图像信息。受此启发,本文采用低层特征与高层特征跳跃连接的方式获得高分辨率信息,以增强着装部位分割的准确度。具体地,通过ResNet101(residual neural network)网络提取图像语义部位特征,使用网络的Res2特征捕获高分辨率信息。着装部位分割分支先采用双线性插值对残差网络的最后一层特征Res5进行上采样,并使用1×1卷积降低特征维度,然后使用1×1卷积将残差网络的第2层级特征Res2与上采样后的特征Res5进行跳跃连接操作,获得同时包含高级语义信息和高分辨率信息的特征,最后采用反卷积层将融合后的特征恢复到输入图像相同的尺寸,逐像素计算softmax分类损失,通过1×1卷积层为7个着装语义部位类型输出对应的着装部位得分图$\boldsymbol{P}_{s}$。其中,softmax分类损失函数定义为

$ L_{\mathrm{s}}=-\sum\limits_{j=1}^{7} \boldsymbol{w}_{j} \ln s_{i} $ (8)

式中,$\boldsymbol{w}_{j}$是一个1×7的向量,$s_{i}$表示该像素属于第${i}$个语义部位类型概率,向量$\boldsymbol{w}$对应7个语义部位类型,包含上臂、下臂、腿部上半区域、腿部下半区域、头部和身体等6个着装部位以及背景。

3 姿态优化

由于人体关节点存在于相邻着装部位的交界处,以头顶关节与颈关节为例,头顶关节应定位在头部着装部位区域内以及头部着装部位的边界附近,颈关节应定位在头部着装区域或者身体着装区域内以及头部着装区与身体着装区域的相交边界附近,即每个人体关节点类型都关联着1个或者2个着装部位,如表 1所示。

表 1 人体关节点与关联的人体着装部位
Table 1 Human body joint points and related dressing part/parts

下载CSV
关节类型 关联的着装部位
头顶 头部区域
颈关节 头部和身体区域
左/右肩关节 身体和上臂区域
左/右肘关节 上臂和下臂区域
左/右腕关节 下臂区域
左/右髋关节 身体和腿部上半区域
左/右膝关节 腿部上半区域和腿部下半区域
左/右踝关节 腿部下半区域

此外,每相邻关节类型都关联着1个着装部位类型,如头顶关节与颈关节的连接线应在头部着装区域内,如表 2所示。

表 2 相邻关节点与关联的人体着装部位
Table 2 Adjacent joint points and related dressing part

下载CSV
关节类型 关联的着装部位
头顶和颈关节 头部区域
颈关节和左/右肩关节 身体区域
左/右肩关节和左/右肘关节 上臂区域
左/右肘关节和左/右腕关节 下臂区域
左/右髋关节和左/右膝关节 腿部上半区域
左/右膝关节和左/右踝关节 腿部下半区域

因此,基于着装部位与人体关节点的约束关系,设计部位关节平滑项。采用全连接条件随机场(conditional random field,CRF)进行着装人体姿态优化,以获得鲁棒性的关节点上下文关系。

将全连接CRF定义为图结构$\boldsymbol{G}=\{\boldsymbol{V}, \boldsymbol{E}\}$,节点集合$\boldsymbol{V}=\left\{c_{1}, c_{2}, \cdots, c_{n}\right\}$表示所有候选关节点的定位,边集合$\boldsymbol{E}=\{\left(c_{i}, c_{j}\right) \mid i=1, 2, \cdots, n, j=1, 2, \cdots, n, i<j\}$表示所有候选关节点定位的连接边。用于预测每个节点属于对应关节点类型的标签定义为$l_{c_{i}} \in\{0, \cdots, K\}, K=14$,表示14个关节点类型,0表示背景。变量$\boldsymbol{L}=\left\{l_{c_{i}} \mid c_{i} \in \boldsymbol{V}\right\} \cup \left\{l_{c_{i}, c_{j}} \mid\left(c_{i}, c_{j}\right) \in \boldsymbol{E}\right\}$,其中,$\left\{l_{c_{i}} \mid c_{i} \in \boldsymbol{V}\right\}$用于预测每个候选关节点定位所属的关节类型,一元关节项表示确定的候选关节点是否为正确的关节点类型,如候选关节点位于肘关节位置则确定为预测的肘关节点类型, $\left\{l_{c_{i}, c_{j}} \mid\left(c_{i}, c_{j}\right) \in \boldsymbol{E}\right\}$用于解决约束关节点定位和连接问题,通过目标函数进行姿态优化。该目标函数为

$ \min \limits_{L} \sum\limits_{c_{i} \in \boldsymbol{V}} \psi_{i}\left(l_{c_{i}}\right)+\sum\limits_{\left(c_{i}, c_{j}\right) \in \boldsymbol{E}} \psi_{i, j}\left(l_{c_{i}}, l_{c_{j}}, l_{c_{i}, c_{j}}\right) $ (9)

式中,$\psi_{i}$为一元项函数,表示基于关节点得分图$\boldsymbol{P}_{j}$在定位$c_{i}$上的对数似然函数,定义为

$ \psi_{i}\left(l_{c_{i}}\right)=\log \frac{1-\boldsymbol{P}_{j}\left(l_{c_{i}}\right)}{\boldsymbol{P}_{j}\left(l_{c_{i}}\right)} $ (10)

$\psi_{i, j}$为二元项函数,表示基于部位得分图$\boldsymbol{P}_{s}$在对应着装部位与关节点约束关系的对数似然函数,具体为

$ \psi_{i, j}=l_{c_{i}, c_{j}} \log \frac{1-\boldsymbol{P}_{i, j}\left(l_{c_{i}}, l_{c_{j}} \mid \boldsymbol{P}_{s}\right)}{\boldsymbol{P}_{i, j}\left(l_{c_{i}}, l_{c_{j}} \mid \boldsymbol{P}_{s}\right)} $ (11)

$ \begin{gathered} \boldsymbol{P}_{i, j}\left(l_{c_{i}}, l_{c_{j}} \mid \boldsymbol{P}_{s}\right)= \\ \frac{1}{1+\exp \left(-\omega \cdot \boldsymbol{f}\left(c_{i}, c_{j}, l_{c_{i}}, l_{c_{j}} \mid \boldsymbol{P}_{s}\right)\right)} \end{gathered} $ (12)

式中,由部位关节平滑项$\boldsymbol{f}\left(c_{i}, c_{j}, l_{c_{i}}, l_{c_{j}} \mid \boldsymbol{P}_{s}\right)$经逻辑回归得到,$\omega$为权值参数,包含3个类型的特征,$f_{u}\left(c_{i}, l_{c_{i}} \mid \boldsymbol{P}_{s}\right)$表示关节类型为$l_{c_{i}}$的关节点在定位$c_{i}$与对应着装部位的约束关系;$\boldsymbol{f}_{u}\left(c_{j}, l_{c_{j}} \mid \boldsymbol{P}_{s}\right)$表示关节类型为$l_{c_{i}}$的关节点在定位$c_{j}$与对应着装部位的约束关系;$\boldsymbol{f}_{p}\left(c_{i}, c_{j}, l_{c_{i}}, l_{c_{j}} \mid \boldsymbol{P}_{s}\right)$表示关节类型对为$\left(l_{c_{i}}, l_{c_{j}}\right)$分别在定位$c_{i}$$c_{j}$与对应着装部位的约束关系。$c_{i}$$c_{j}$表示关节点的候选位置,$l_{c_{i}}$$l_{c_{j}}$表示关节类型。

本文基于着装部位得分图$\boldsymbol{P}_{s}$构建部位关节平滑项$\boldsymbol{f}\left(c_{i}, c_{j}, l_{c_{i}}, l_{c_{j}} \mid \boldsymbol{P}_{s}\right)$,假设$l_{c_{i}}$为头顶关节,$l_{c_{j}}$为颈关节,则$f_{u}\left(c_{i}, l_{c_{i}} \mid \boldsymbol{P}_{s}\right)$是2维特征向量,第1个维度表示$c_{i}$是否在头部着装区域内,第2个维度表示$c_{i}$是否在头部着装区域的边界附近(边界的10个像素内)。$\boldsymbol{f}_{{u}}\left(c_{j}, l_{c_{j}} \mid \boldsymbol{P}_{s}\right)$是4维特征向量,第1个维度表示$c_{j}$是否在头部着装区域内,第2个维度表示$c_{j}$是否在头部着装区域的边界附近(边界的10个像素内),第3个维度表示$c_{j}$是否在身体着装部位内,第4个维度表示$c_{j}$是否在身体着装部位的边界附近(边界的10个像素内)。$\boldsymbol{f}_{p}\left(c_{i}, c_{j}, l_{c_{i}}, l_{c_{j}} \mid \boldsymbol{P}_{s}\right)$是2维特征向量,第1个维度表示$c_{i}$$c_{j}$连线是否在头部着装区域内;第2个维度表示由$c_{i}$$c_{j}$构造的长宽比为2.5 ∶1的矩形区域与头部着装部位的交并比(intersection-over-union,IOU)。此外,对于相邻关节则提取全部3个特征,对于非相邻关节如头顶与踝关节,将特征$\boldsymbol{f}_{p}\left(c_{i}, c_{j}, l_{c_{i}}, l_{c_{j}} \mid \boldsymbol{P}_{s}\right)$设置为0。

为了降低全连接CRF计算的复杂性,首先对输入图像进行人体检测并采用非极大值抑制(non-maximum suppression,NMS)筛选关节得分图$\boldsymbol{P}_{j}$,为每个关节点类型生成6个候选定位。然后,基于一元关节项和部位关节平滑项,参照DeeperCut(Insafutdinov等,2016)的推理算法,将全连接CRF转换为带有L约束的整数线性规划(integer linear programming,ILP)问题,为生成的候选关节点位置$c_{1}, c_{2}, \cdots, c_{n}$分配关节类型标签,并组合成多个姿态配置。其中,丢失的关节点得分设定为0.2分,每个姿态的得分为一元关节项里所有可见关节点得分的总和。最后,通过非极大值抑制算法去除相似的姿态配置,并以姿态中心最接近人体检测框中心的姿态为本文最终输出的人体姿态估计结果。

4 实验结果与分析

4.1 实验数据集

实验硬件平台为Inter Core i9-9900K @3.60 GHz CPU、2080Ti GPU和32 GB DDR4 2 666 MHz Ram,集成式开发环境为PyCharm等。

由于时尚街拍图像易于获取,且包含了着装场景中背景多样复杂、人体姿态和视角位置多变、服装纹理颜色多样以及服装对关节点遮挡较多的特点,因此,本文以时尚街拍图像为例,通过爬取大型时尚街拍图像网站Chictopia,并结合在线图像搜集获得数据集原始图像,构建了一个包含7个语义部位标签和14个人体关节点标注的着装人体图像数据集。该数据集共23 875幅图像,包含男性图像9 256幅和女性图像14 619幅。使用LabelMe对数据集原始图像进行精细的语义部位标注和人体关节点标注,语义部位标注包含上臂、下臂、腿部上半区域、腿部下半区域、头部、身体等6个着装语义部位以及背景。此外,考虑到由于缺少人体姿态视角位置信息导致已有方法对着装人体侧面以及背面视角姿态估计的精度不高,本文构建的着装图像数据集还包含36%侧面姿态、25%背面姿态以及39%正面姿态的着装人体图像,如图 4所示。最终选取数据集中的20 000幅图像作为训练集,2 375幅图像作为测试集,1 500幅图像作为验证集。为了更好地学习多尺度人体关节点特征以及考虑到显存大小的限制,本文将所有数据集图像分辨率设置为256×256像素,图像格式均为jpg格式,数据增强包含在[-45°, 45°]内随机旋转度数,在[0.65, 1.35]内选择缩放比例因子以及水平翻转。

图 4 不同视角的姿态图像数量
Fig. 4 The number of poses with different angles of view

4.2 实验结果与性能分析

4.2.1 姿态聚类有效性分析

评估方式采用关节点正确估计比例(percentage of correct keypoints,PCK)机制,以检测关节点与对应真值间的归一化距离小于设定的阈值作为正确估计的关节点。参照MPII数据集设定,以头部长度作为归一化参考,阈值以头部长度乘以一个系数表示,如PCKh@0.5表示0.5倍的头部长度作为评估设定的阈值,PCKh的结果表示该阈值内模型在数据集中正确估计的关节点数占总关节点数的比例。

本文使用K均值聚类方法对数据集中已标注的姿态坐标信息进行聚类,图 5展示了不同数量的姿态模板构建的姿态类别损失函数对姿态表示模型效果的影响。可以看出,姿态模板数小于等于5时,姿态估计的PCKh值不断上升,姿态模板数大于5时,姿态估计的PCKh值开始下降,这是由于姿态模板数为5时包含了人体正面、背面以及左右侧面的全部视角位置信息。姿态模板数为6时,姿态模板引入了右侧面视角,在视角位置产生冗余,所以本文将姿态类别数设置为5,以构建姿态类别损失函数,提高不同视角下着装人体姿态估计的鲁棒性,进一步提高着装人体姿态估计的精度。

图 5 姿态表示模型的PCKh@0.5结果
Fig. 5 The PCKh@0.5 result of pose representation model

为了说明姿态类别损失函数的有效性,本文确定姿态模板数量为5,并在姿态表示模型的基础上,将有姿态类别损失函数与无姿态类别损失函数的关节点正确估计比例进行对比,结果如表 3所示。可以看出,有姿态类别损失的姿态表示模型PCHh@0.5值比无姿态类别损失的提高了0.7%,说明提出的姿态类别损失能够有效提升着装人体姿态估计精度。

表 3 有无姿态类别损失对姿态表示模型的影响(PCKh@0.5)
Table 3 The influence of the pose category loss on the pose representation model (PCKh@0.5) 

下载CSV
/%
模型 肘关节 腕关节 膝关节 踝关节 整体
无姿态类别损失 91.6 88.7 88.2 85.3 91.0
有姿态类别损失 92.3 89.0 89.0 86.2 91.7

4.2.2 姿态优化对比实验

图 6展示了姿态表示模型中最终优化构造的联合损失函数在训练过程中随着迭代次数增加的损失变化,共迭代500 000次。从图 6可以看出,网络具有较快的收敛性能,最终趋于稳定的拟合。

图 6 损失函数变化曲线
Fig. 6 Change curve of loss function

图 7展示了在姿态表示模型的基础上无着装部位分割的姿态估计结果、结合着装部位分割优化后的姿态估计结果以及着装部位分割结果。可以看出,本文提出的着装部位分割具有较好的分割效果,在结合着装部位分割优化后,能有效避免人体关节点的误定位。

图 7 姿态优化对比结果
Fig. 7 The contrastive results of pose optimization
((a) original images; (b) without dressed part segmentation; (c) dressed part segmentation; (d) with dressed part segmentation)

图 8是姿态表示模型和姿态优化与堆叠沙漏网络的对比实验结果。可以看出,姿态表示模型以及姿态优化在不同归一化距离下都有较高的检测准确率。

图 8 不同归一化距离的PCKh结果
Fig. 8 PCKh results of different normalized distance

4.2.3 姿态估计实验结果

使用PCKh@0.5评估机制分别对人体肩关节、肘关节、腕关节、髋关节、膝关节和踝关节6类关节以及整体进行评估,衡量着装图像中不同人体关节点类型的定位精度和整体的人体姿态估计性能。其中,肩关节、肘关节、腕关节、髋关节、膝关节和踝关节代表左右两侧对称关节点的平均值。表 4展示了本文方法与Yang等人(2017)Chen等人(2018)Xiao等人(2018)Sun等人(2019)4种人体姿态估计算法在着装图像数据集上的评估结果。结果表明,本文提出的人体姿态估计双分支网络提高了每类关节点的准确性,并在整体关节点评估取得了92.5%的效果,尤其是在最具有挑战性的肘关节和膝关节,分别较Sun等人(2019)方法提高了1.9%和2.1%。通过对比,验证了本文提出的双分支网络的人体姿态估计方法能有效提升着装图像中人体姿态估计的性能。

表 4 着装人体图像数据集上的PCKh@0.5的结果
Table 4 The results of PCKh@0.5 on the clothing human body image dataset  

下载CSV
/%
方法 肩关节 肘关节 腕关节 髋关节 膝关节 踝关节 整体
Yang等人(2017) 96.5 91.3 88.3 90.7 87.8 85.8 90.6
Chen等人(2018) 95.8 90.1 87.0 89.7 86.6 82.9 89.6
Xiao等人(2018) 96.4 90.8 87.3 90.6 87.4 83.8 90.1
Sun等人(2019) 96.7 91.7 89.8 91.1 89.2 85.6 91.0
本文 97.4 93.6 90.3 92.8 91.3 88.0 92.5
注:加粗字体表示各列最优结果。

整个深度神经网络的时间复杂度(He和Sun,2015)为$\mathrm{O}\left(\sum\limits_{n=1}^{N} M_{n}^{2} \cdot K_{n}^{2} \cdot C_{n-1} \cdot C_{n}\right)$,其中$N$是整个网络的深度,即卷积层数,$n$表示第$n$个卷积层,$M_{n}^{2}$是第$n$个卷积核输出的特征图面积,$K_{n}^{2}$是第$n$个卷积核面积,$C_{n-1}$是第${n-1}$个卷积层的输出通道数,$C_{n}$是第$n$个卷积层的输出通道数。由于时间复杂度受网络深度的影响较大,因此根据卷积层层数按高、中、低进行衡量评价。卷积层大于40层表示时间复杂度高,卷积层为20~40层表示时间复杂度适中,卷积层小于20层表示时间复杂度低。为了进一步验证本文方法的可应用性,表 5给出了本文方法以及几种人体姿态估计方法在时间复杂度和检索精度上的对比。Yang等人(2017)采用沙漏网络加金字塔残差模块,共50个卷积层;Chen等人(2018)采用ResNet 50加瓶颈层实现,共15个卷积层;Xiao等人(2018)采用ResNet 152加反卷积实现,共48个卷积层;Sun等人(2019)共36个卷积层。本文方法包括着装姿态表示分支和着装部位分割分支,共31个卷积层,相较于其他典型的网络结构,本文方法在适中的时间复杂度下,获得了精度较好的姿态估计结果。

表 5 不同人体姿态估计方法的时间复杂度与检测精度比较
Table 5 Comparison of time complexity and detection accuracy among different human pose estimation methods

下载CSV
方法 卷积层数 时间复杂度 检测精度/%
Yang等人(2017) 50 90.6
Chen等人(2018) 15 89.6
Xiao等人(2018) 45 90.1
Sun等人(2019) 36 91.0
本文 31 92.5

本文对着装图像进行人体姿态估计,图 9展示了人体姿态估计网络模型在着装图像数据集的可视化结果。考虑到既要体现着装场景下人体姿态的特点,又要体现本文提出的双分支网络的人体姿态估计方法的有效性,因此图 9选取了不同视角、姿态、服装款式以及背景的人体姿态估计实例,通过与原始堆叠沙漏网络、着装姿态表示模型(堆叠沙漏网络+姿态类别损失+多尺度损失及特征融合)、Sun等人(2019)的方法以及真值的对比,展示本文提出的人体姿态估计双分支网络(着装姿态表示分支+着装部位分割分支)的效果。可以看出,1)堆叠沙漏网络的结果(图 9(d))在人体左、右侧面视角出现腿部关节点错误定位,人体背面视角中出现大量关节点漏定位,在背景与人体部位相似、人体着装款式颜色一致和着装服饰遮挡的情况下均呈现出不同程度的关节点误定位问题。为了克服这些问题,本文基于着装人体姿态聚类引入姿态类别损失,并通过增加多尺度损失以及特征融合构建姿态表示模型。2)姿态表示模型的结果(图 9(e))有效解决了人体视角多样以及背景和服装款式干扰导致的关节点误定位和漏定位问题。3)本文提出的人体姿态估计双分支网络的结果(图 9(f))通过结合着装部位分割约束人体关节点定位,有效解决了由于着装场景中人体关节点易受穿着服饰遮挡导致关节点定位失败的问题,进一步提高了着装人体姿态估计精度。

图 9 着装人体姿态估计结果对比
Fig. 9 Qualitative results of human pose estimation in dressing scene
((a) original images; (b) ground truth; (c) Sun et al.(2019); (d) stacked hourglass network; (e) dressed pose representation model; (f) ours)

4.2.4 消融分析

为了验证人体姿态估计网络模型每个部分的有效性,在构建的着装人体图像数据集的验证集上进行消融分析。首先以沙漏网络作为人体姿态估计的基础网络,然后分别在基础网络基础上增加多尺度损失、特征融合以及结合着装部位约束部分。实验结果如表 6所示,其中,Base表示基础网络,Base+M表示在基础网络上增加多尺度欧氏距离损失监督,Base+M*表示在基础网络上增加多尺度联合损失监督,其中损失函数包括欧氏距离损失和姿态类别损失,Base+M*+C表示在Base+M*基础上增加特征融合,即着装姿态表示模型,Base+full表示在Base+M*+C基础上增加着装部位分割约束,即人体姿态估计双分支网络。

表 6 消融实验(PCKh@0.5)
Table 6 Ablation experiment (PCKh@0.5) 

下载CSV
/%
模型 肘关节 腕关节 膝关节 踝关节 整体
Base 90.2 86.8 86.7 83.2 89.4
Base+M 90.9 87.6 87.5 84.1 90.2
Base+M* 91.6 87.9 88.3 85.0 90.9
Base+M*+C 92.3 89.0 89.0 86.2 91.7
Base+full 93.6 90.3 91.3 88.0 92.5
注:加粗字体表示各列最优结果。

表 6可见,原始堆叠沙漏网络在着装图像数据集上验证整体的关节点正确估计比例为89.4%,本文提出的人体姿态估计网络模型PCKh整体得分为92.5%,通过结合网络的每个部分将基础得分提高了3.1%。具体地,由于多尺度损失可以较好地捕捉关节点局部特征,通过在每个沙漏模块的反卷积层增加多尺度损失,PCKh得分提高了0.8%。通过引入姿态类别损失函数,多尺度联合损失相较多尺度欧氏距离损失的PCKh得分提高了0.7%,归因于对数据集中姿态的聚类能较好地表征各类着装人体姿态。特征融合可以全局优化人体关节点多尺度特征,为难以估计的关节点提供全局上下文信息,通过在最后一个沙漏模块增加特征融合,在多尺度联合损失监督的基础上PCKh得分提高了0.8%。最后,通过使用着装部位信息约束人体关节点定位,其PCKh得分在姿态表示模型的基础上提高了0.8%。值得注意的是,在增加着装部位约束之后,人体的肘关节、腕关节、膝关节以及踝关节的PCKh得分都有了大幅提高,尤其是具有挑战性的肘关节和膝关节在姿态表示模型基础上分别提高了1.3%和2.3%,归因于着装部位的上下臂和腿部上下半区域的准确分割。总之,本文方法能够有效结合多尺度损失与特征融合以及联合着装部位信息,提升了着装人体姿态估计结果的精度。

此外,为说明提出的双分支网络对不同服饰的通用性,以简单的短袖、短裤穿着为基准,通过对数据集中穿着为长裤、短裤、连衣裙、半身裙、西装、短袖、背心、大衣、套头衫、衬衫、夹克以及其他常见服饰的人体姿态进行评估,结果如图 10所示。可以看出,采用双分支网络模型的整体人体姿态估计精度约为92.4%,对穿着不同服饰的人体姿态估计具有较好的鲁棒性结果。

图 10 不同服饰种类的人体姿态估计结果
Fig. 10 The human pose estimation results of different clothing types

5 结论

针对由于服装款式多样、背景干扰和着装姿态多变导致人体姿态估计精度较低问题,本文以着装场景为例,提出一种着装场景下双分支网络的人体姿态估计方法。该模型融合全局与局部特征,提高了关节点定位精度,引入姿态类别损失提高不同视角下着装人体姿态估计的鲁棒性,再结合着装部位分割约束人体关节点定位,提高了人体姿态估计的精度。实验结果表明,本文方法在构建的着装人体图像数据集上能够提高人体姿态估计精度,关节点正确估计比例达到92.5%。

然而,本文方法还存在一些不足。一方面,针对连衣裙、大衣等对人体关节点遮挡严重的服饰,人体姿态估计精度较低,效果不理想;另一方面,当着装人体的关节点存在过多配饰遮挡时,需要提高算法的关节点定位精度。因此,本文的后续工作将着重围绕这些问题展开,以进一步提高着装场景下人体姿态估计的精度。

参考文献

  • Andriluka M, Pishchulin L, Gehler P and Schiele B. 2014.2D human pose estimation: new benchmark and state of the art analysis//Proceedings of 2014 IEEE Conference on Computer Vision and Pattern Recognition. Columbus, USA: IEEE: 3686-3693 [DOI: 10.1109/cvpr.2014.471]
  • Chen Y L, Wang Z C, Peng Y X, Zhang Z Q, Yu G and Sun J. 2018. Cascaded pyramid network for multi-person pose estimation//Proceedings of 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, USA: IEEE: 7103-7112 [DOI: 10.1109/cvpr.2018.00742]
  • Dai Q, Shi X B, Qiao J Z, Liu F, Zhang D Y. 2017. Articulated human pose estimation with occlusion level. Journal of Computer-Aided Design and Computer Graphics, 29(2): 279-289 (代钦, 石祥滨, 乔建忠, 刘芳, 张德园. 2017. 结合遮挡级别的人体姿态估计方法. 计算机辅助设计与图形学学报, 29(2): 279-289) [DOI:10.3969/j.issn.1003-9775.2017.02.009]
  • Dong J, Chen Q, Shen X H, Yang J C and Yan S C. 2014. Towards unified human parsing and pose estimation//Proceedings of 2014 IEEE Conference on Computer Vision and Pattern Recognition. Columbus, USA: IEEE: 843-850 [DOI: 10.1109/CVPR.2014.113]
  • Ge Y Y, Zhang R M, Wang X G, Tang X O and Luo P. 2019. DeepFashion2: a versatile benchmark for detection, pose estimation, segmentation and re-identification of clothing images//Proceedings of 2019 IEEE/CVF conference on computer vision and pattern recognition. Long Beach, USA: IEEE: 5332-5340 [DOI: 10.1109/CVPR.2019.00548]
  • He K M, Gkioxari G, Dollár P and Girshick R. 2017. Mask R-CNN//Proceedings of 2017 IEEE International Conference on Computer Vision. Venice, Italy: IEEE: 2980-2988 [DOI: 10.1109/ICCV.2017.322]
  • He K M and Sun J. 2015. Convolutional neural networks at constrained time cost//Proceedings of 2015 IEEE Conference on Computer Vision and Pattern Recognition. Boston, USA: IEEE: 5353-5360 [DOI: 10.1109/CVPR.2015.7299173]
  • Insafutdinov E, Pishchulin L, Andres B, Andriluka M and Schiele B. 2016. DeeperCut: a deeper, stronger, and faster multi-person pose estimation model//Proceedings of the 14th European Conference on Computer Vision. Amsterdam, the Netherlands: Springer: 34-50 [DOI: 10.1007/978-3-319-46466-4_3]
  • Johnson S and Everingham M. 2010. Clustered pose and nonlinear appearance models for human pose estimation//Proceedings of British Machine Vision Conference. Aberystwyth, UK: BMVA Press: 5 [DOI: 10.5244/c.24.12]
  • Ke L P, Chang M C, Qi H G and Lyu S. 2018. Multi-scale structure-aware network for human pose estimation//Proceedings of the 15th European Conference on Computer Vision. Munich, Germany: Springer: 731-746 [DOI: 10.1007/978-3-030-01216-8_44]
  • Ladicky L, Torr P H S and Zisserman A. 2013. Human pose estimation using a joint pixel-wise and part-wise formulation//Proceedings of 2013 IEEE Conference on Computer Vision and Pattern Recognition. Portland, USA: IEEE: 3578-3585 [DOI: 10.1109/CVPR.2013.459]
  • Li J, Su W and Wang Z F. 2020. Simple pose: rethinking and improving a bottom-up approach for multi-person pose estimation//Proceedings of the 34th AAAI Conference on Artificial Intelligence. New York, USA: AAAI: 11354-11361 [DOI: 10.1609/aaai.v34i07.6797]
  • Liang X D, Gong K, Shen X H, Lin L. 2019. Look into person: joint body parsing and pose estimation network and a new benchmark. IEEE Transactions on Pattern Analysis and Machine Intelligence, 41(4): 871-885 [DOI:10.1109/TPAMI.2018.2820063]
  • Liu Z W, Luo P, Qiu S, Wang X G and Tang X O. 2016. DeepFashion: powering robust clothes recognition and retrieval with rich annotations//Proceedings of 2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, USA: IEEE: 1096-1104 [DOI: 10.1109/CVPR.2016.124]
  • Marras I, Palasek P and Patras I. 2017. Deep refinement convolutional networks for human pose estimation//Proceedings of the 12th IEEE International Conference on Automatic Face and Gesture Recognition. Washington, USA: IEEE: 446-453 [DOI: 10.1109/FG.2017.148]
  • Newell A, Yang K Y and Deng J. 2016. Stacked hourglass networks for human pose estimation//Proceedings of the 14th European Conference on Computer Vision. Amsterdam, the Netherlands: Springer: 483-499 [DOI: 10.1007/978-3-319-46484-8_29]
  • Nie X C, Feng J S, Zuo Y M and Yang S C. 2018. Human pose estimation with parsing induced learner//Proceedings of 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, USA: IEEE: 2100-2108 [DOI: 10.1109/CVPR.2018.00224]
  • Ramanan D. 2006. Learning to parse images of articulated bodies//Proceedings of the 19th International Conference on Neural Information Processing Systems. Vancouver, Canada: NIPS: 1129-1136 [DOI: 10.5555/2976456.2976598]
  • Ruan T, Liu T, Huang Z L, Wei Y C, Wei S K and Zhao Y. 2019. Devil in the details: towards accurate single and multiple human parsing//Proceedings of the 33rd AAAI Conference on Artificial Intelligence. Honolulu, USA: AAAI Press: 4814-4821 [DOI: 10.1609/aaai.v33i01.33014814]
  • Sun K, Xiao B, Liu D and Wang J D. 2019. Deep high-resolution representation learning for human pose estimation//Proceedings of 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Long Beach, USA: IEEE: 5686-5696 [DOI: 10.1109/CVPR.2019.00584]
  • Tang W, Yu P and Wu Y. 2018. Deeply learned compositional models for human pose estimation//Proceedings of the 15th European Conference on Computer Vision. Munich, Germany: Springer: 197-214 [DOI: 10.1007/978-3-030-01219-9_12]
  • Tompson J, Goroshin R, Jain A, LeCun Y and Bregler C. 2015. Efficient object localization using convolutional networks//Proceedings of 2015 IEEE Conference on Computer Vision and Pattern Recognition. Boston, USA: IEEE: 648-656 [DOI: 10.1109/CVPR.2015.7298664]
  • Toshev A and Szegedy C. 2014. DeepPose: human pose estimation via deep neural networks//Proceedings of 2014 IEEE Conference on computer Vision and Pattern Recognition. Columbus, OH, USA: IEEE: 1653-1660 [DOI: 10.1109/CVPR.2014.214]
  • Wang R, Huang C Y, Wang X Y. 2020. Global relation reasoning graph convolutional networks for human pose estimation. IEEE Access, 8: 38472-38480 [DOI:10.1109/ACCESS.2020.2973039]
  • Wei S E, Ramakrishna V, Kanade T and Sheikh Y. 2016. Convolutional pose machines//Proceedings of 2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, USA: IEEE: 4724-4732 [DOI: 10.1109/CVPR.2016.511]
  • Xia F T, Wang P, Chen X J and Yuille A L. 2017. Joint multi-person pose estimation and semantic part segmentation//Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu, USA: IEEE: 6080-6089 [DOI: 10.1109/CVPR.2017.644]
  • Xiao B, Wu H P and Wei Y C. 2018. Simple baselines for human pose estimation and tracking//Proceedings of the 15th European Conference on Computer Vision. Munich, Germany: Springer: 472-487 [DOI: 10.1007/978-3-030-01231-1_29]
  • Yamaguchi K, Kiapour M H, Ortiz L E and Berg T L. 2012. Parsing clothing in fashion photographs//Proceedings of 2012 IEEE Conference on Computer Vision and Pattern Recognition. Providence, RI, USA: IEEE: 3570-3577 [DOI: 10.1109/CVPR.2012.6248101]
  • Yang W, Li S, Ouyang W L, Li H S and Wang X G. 2017. Learning feature pyramids for human pose estimation//Proceedings of 2017 IEEE International Conference on Computer Vision. Venice, Italy: IEEE: 1290-1299 [DOI: 10.1109/ICCV.2017.144]
  • Yang X M, Zhou Y H, Zhang S R, Wu K W, Sun Y X. 2019. Human pose estimation based on cross-stage structure. Journal of Image and Graphics, 24(10): 1692-1702 (杨兴明, 周亚辉, 张顺然, 吴克伟, 孙永宣. 2019. 跨阶段结构下的人体姿态估计. 中国图象图形学报, 24(10): 1692-1702) [DOI:10.11834/jig.190028]
  • Yang Y and Ramanan D. 2011. Articulated pose estimation with flexible mixtures-of-parts//Proceedings of CVPR 2011. Colorado Springs, USA: IEEE: 1385-1392 [DOI: 10.1109/CVPR.2011.5995741]
  • Zhang S H, Li R L, Dong X, Rosin P, Cai Z X, Han X, Yang D C, Huang H Z and Hu S M. 2019. Pose2Seg: detection free human instance segmentation//Proceedings of 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Long Beach, USA: IEEE: 889-898 [DOI: 10.1109/CVPR.2019.00098]