|
发布时间: 2021-07-16 |
图像理解和计算机视觉 |
|
|
收稿日期: 2020-08-22; 修回日期: 2021-01-17; 预印本日期: 2021-01-24
基金项目: 国家重点研发计划项目(2018AAA0100604);国家自然科学基金项目(61720106006, 62072455, 61702511, 61751211, U1836220, U1705262)
作者简介:
吕露露, 1995年生, 女, 硕士研究生, 主要研究方向为零样本图像分类。E-mail: 1176515019@qq.com
黄毅, 男, 博士研究生, 主要研究方向为视频文本分析和多模态协同分析。E-mail: yi.huang@nlpr.ia.ac.cn 高君宇, 男, 助理研究员, 主要研究方向为模式识别与智能系统。E-mail: gaojunyu2015@ia.ac.cn 杨小汕, 男, 副研究员, 主要研究方向为模式识别和多媒体内容分析。E-mail: xiaoshan.yang@nlpr.ia.ac.cn 徐常胜, 通信作者, 男, 研究员, 主要研究方向为多媒体内容分析/索引/检索、模式识别与计算机视觉。E-mail: csxu@nlpr.ia.ac.cn *通信作者: 徐常胜 csxu@nlpr.ia.ac.cn
中图法分类号: TP391
文献标识码: A
文章编号: 1006-8961(2021)07-1658-10
|
摘要
目的 在人体行为识别算法的研究领域,通过视频特征实现零样本识别的研究越来越多。但是,目前大部分研究是基于单模态数据展开的,关于多模态融合的研究还较少。为了研究多种模态数据对零样本人体动作识别的影响,本文提出了一种基于多模态融合的零样本人体动作识别(zero-shot human action recognition framework based on multimodel fusion,ZSAR-MF)框架。方法 本文框架主要由传感器特征提取模块、分类模块和视频特征提取模块组成。具体来说,传感器特征提取模块使用卷积神经网络(convolutional neural network,CNN)提取心率和加速度特征;分类模块利用所有概念(传感器特征、动作和对象名称)的词向量生成动作类别分类器;视频特征提取模块将每个动作的属性、对象分数和传感器特征映射到属性—特征空间中,最后使用分类模块生成的分类器对每个动作的属性和传感器特征进行评估。结果 本文实验在Stanford-ECM数据集上展开,对比结果表明本文ZSAR-MF模型比基于单模态数据的零样本识别模型在识别准确率上提高了4 %左右。结论 本文所提出的基于多模态融合的零样本人体动作识别框架,有效地融合了传感器特征和视频特征,并显著提高了零样本人体动作识别的准确率。
关键词
零样本; 多模态融合; 动作识别; 传感器数据; 视频特征
Abstract
Objective Human action recognition is one of the research hotspots in computer vision because of its wide application in human-computer interaction, virtual reality, and video surveillance. With the development of related technology in recent years, the human action recognition algorithm based on deep learning has achieved good recognition performance when the sample size is sufficient. However, studying human action recognition is difficult when the sample size is small or missing. The emergence of zero-shot recognition technology has solved these problems and attracted considerable attention because it can directly classify the "unseen" categories that are not in the training set. In the past decade, numerous methods have been conducted to perform zero-shot human action recognition by using video features and achieved promising improvement. However, most of the current methods are based on single modality data and few studies have been conducted on multimodal fusion. To study the influence of multiple modality fusion on zero-shot human action recognition, this study proposes a zero-shot human action recognition framework based on multimodal fusion(ZSAR-MF). Method Unlike most of the previous methods based on the fusion of external information and video features or only research on single-modality video features, tour study focuses on the influence of sensor features that are most related to the activity state to improve the recognition performance. The zero-shot human-action recognition framework based on multimodal fusion is mainly composed of a sensor feature-extraction module, classification module, and video feature extraction module. Specifically, the sensor feature-extraction module uses convolutional neural network (CNN) to extract the acceleration and heart rate features of human actions and predict the most relevant feature words for each action. The classification module uses the word vectors of all concepts (sensor features, actions names, and object names) to generate action category classifiers. The "seen" category classifiers are obtained by learning the training data of these categories, and the "unseen" category classifiers are generalized from the "seen" category classifiers by using graph convolutional network (GCN).The video feature-extraction module extracts the video features of each action and maps the attributes of human actions, object scores, and sensor features into the attribute-feature space. Finally, the classifiers generated by the classification module are used to evaluate the feature of each video to calculate the action class scores. Result The experiment is conducted on the Stanford-ECM dataset with sensor and video data. The dataset includes 23 types of human action video and heart rate and acceleration data synchronized with the collected video. Our experiment can be divided into three steps. First, we remove the 7 actions that do not meet the experimental conditions and select the remaining 16 actions as the experimental dataset. Then, we select three methods to perform experiments on zero-shot human action recognition. A comparison of the experimental results show that the results of zero-shot action recognition via two-stream GCNs and knowledge graphs (TS-GCN) method are approximately 8% higher than that of zero-shot image classification based on generated countermeasure network (ZSIC-GAN) method, which proves the auxiliary role of knowledge graphs in action description by using external semantic information and the advantage of GCN. Compared with the ZSIC-GAN and TS-GCN methods, our proposed method have recognition results that are 12% and 4% higher than that of the ZSIC-GAN and TS-GCN method, respectively, which proves that for zero-shot human-action recognition, the fusion method of the sensor and video features is better than the method that only uses video features. Furthermore, we verify the influence of the number of layers of GCN on the recognition accuracy and analyze the reasons for this result. The experimental results show that adding more layers to the three-layer model cannot significantly improve the recognition accuracy of the model. One of the potential reasons for this situation is that the amount of training data is too small, and an overfitting problem occurs in the deeper network. Conclusion Sensor and video data can comprehensively describe human activity patterns from different views, which provide convenience for zero-shot human-action recognition based on multimodal fusion. Unlike most of the multimodal fusion methods based on the text description of the action or the audio data and image features, our study uses the sensor and video features that are most related to the active state to realize the multimodal fusion, and pays close attention to the original features of the action. In general, our zero-shot human-action recognition framework based on multimodal fusion includes three parts: sensor feature-extraction module, classification module, and video feature-extraction module. This framework integrates video features and features extracted from sensor data. The two features are modeled by using the knowledge graphs, and the entire network is optimized by using classification loss function. The experimental results on the Stanford-ECM dataset demonstrate the effectiveness of our proposed zero-shot human-action recognition framework based on multimodal fusion. By fully fusing sensor and video features, we significantly improve the accuracy of zero-shot human-action recognition.
Key words
zero-shot; multimodal fusion; action recognition; sensor data; video features
0 引言
人体动作识别是计算机视觉领域的研究热点之一,广泛应用在生物识别、视频监控和人机交互等领域(何俊佑,2019)。随着相关技术的进步,基于深度学习的人体动作识别算法在样本量充足的情况下取得了良好的识别效果。然而,在样本量少甚至缺失的情况下,如何识别出新的动作这一类问题研究得还比较少。
针对人体动作多样性和复杂性等特点,研究人员迫切需要一种在目标类别的视觉标注数据完全缺失的情况下,仍然能够识别出这些类别的技术(何俊佑,2019)。零样本识别技术的出现解决了这些问题并引起了相当大的关注,因为它可以对训练集中没有的类别(称之为不可见类别)直接进行分类(Zhu等,2018)。
现有的零样本识别方法可以概括为两种类型,一种是利用人工定义的属性进行识别(Liu等,2011),这些方法的特点是利用动作和属性的关系来识别不可见类。但是,由于对动作等相关属性的定义十分困难,在实际情况下,这些基于属性的方法不适用于零样本人体动作识别;另一种是采用动作名称的语义表示对语义空间中的动作关系建模(Xu等,2016),常用的语义信息包括人工定义的属性(Farhadi等,2009)和自动从辅助文本语料库中提取的单词的词向量(Akata等,2015)。零样本人体动作识别示例如图 1所示,图中训练集与测试集无相同动作。
尽管上述方法简单有效,但是词嵌入空间只能表示动作与动作的关系,很难利用动作视频里的语义信息来提高识别准确率。为了解决这些问题,Jain等人(2015)与Mettes和Snoek(2017)将对象作为零样本识别的属性,使用预训练的对象分类器来查找动作视频里的对象;Gao等人(2019)通过将知识图谱(Speer等,2017)合并到上述方法中,利用外部知识信息来提高零样本识别方法的泛化能力,并在通用的数据集上获得了良好的测试结果。
本文在Gao等人(2019)方法的基础上,提出了一个基于多模态融合的零样本人体动作识别框架,结构如图 2所示。图中训练集与测试集无重复动作,带箭头的实线表示训练过程,带箭头的虚线表示测试过程。
具体地,本文框架主要由传感器特征提取模块、分类模块和视频特征提取模块组成。传感器特征提取模块使用卷积神经网络(convolutional neural network, CNN)提取心率和加速度特征;同时,为了更好地从传感器特征和视频中提取信息,本文基于图卷积神经网络设计了分类模块和视频特征提取模块,在分类模块中使用所有概念(传感器特征、动作和对象名称)的词向量生成动作类别的分类器;在视频特征提取模块中将每个动作的属性、对象分数以及传感器特征映射到属性—特征空间,并采用分类损失函数对整个网络进行优化。在Stanford-ECM数据集(Nakamura等,2017)上的实验结果证明了本文模型的有效性。
总体而言,本文工作有如下贡献:
1) 提出一个新的基于多模态融合的零样本人体动作识别方法(zero-shot human action recognition framework based on multimodel fusion, ZSAR-MF),方法中的分类模块利用传感器特征、动作和对象名称的词向量生成动作类别分类器;视频特征提取模块将传感器特征对应的特征词加入到构建的知识图谱中,作为节点的一部分,以实现多模态融合。
2) 提出了一种新的数据融合方式,以往的多模态融合方法都使用特征连接的前端融合方法,或是结果加权的后端融合方法。与之前方法不同,本文使用图卷积神经网络(Kipf和Welling,2017)对动作的属性、对象分数和传感器特征进行融合,同时利用图卷积网络和知识图谱学习动作分类器。
3) 本文在Stanford-ECM数据集上进行实验,结果表明,相比于仅使用视频特征实现零样本人体动作识别的方法,本文模型在识别率上提升了4%左右。
1 相关工作
1.1 多模态融合
模态是指事物发生或存在的方式,多模态是指两个或两个以上模态任意形式的组合。多模态研究分为4个时期,即人类行为多模态研究、多模态计算机处理研究、多模态互动研究和多模态深度学习研究(刘建伟等,2020)。本文主要讨论的是人类行为多模态研究的一个分支—多模态融合的零样本人体动作识别。
传统视频包含多个数据源,如视频、音频和文本等数据,每个数据模式都有不同的属性,用于描述事件的不同方面。早前的多模态学习方法使用受限玻耳兹曼机(restricted Boltzmann machines,RBM)(Srivastava和Salakhutdinov,2014)或Log-bilinear模型(Kiros等,2014)学习语句和图像的分布,以实现基于文本描述和图像特征的多模态融合;Piergiovanni和Ryoo(2020)提出了一种联合多模态表示空间的方法,对不匹配的文本和视频数据使用对抗式公式以改进联合嵌入空间;Frome等人(2013)提出了深层视觉语义嵌入模型,该模型利用已标注的图像数据和未标注文本中的语义信息来识别视觉对象;Ngiam等人(2011)设计了一个能够学习融合音频和视频表示的自动编码器,生成的分类器使用其中一种数据进行训练,使用另一种数据进行测试,但此方法依赖逐层训练,而不是端到端的训练模型。
1.2 零样本动作识别
零样本动作识别是一种在目标动作的视觉标注数据完全缺失的情况下,仍然能够识别出目标动作的技术,通过利用已知的语义信息训练出识别未知动作的分类器。因此可以认为零样本动作识别是建立在人类对类别描述之上的研究。
由于人工定义属性具有很强的主观性且词嵌入空间只能简单地表示动作与动作的关系,不能利用动作视频里的其他信息来提高识别准确率,近年来,人们证明了将对象作为类别的属性非常适用于动作识别的研究。Jain等人(2015)使用上千个对象类别来构建语义嵌入模型;Mettes和Snoek(2017)进一步将空间对象感知嵌入用于零样本动作分类;Gan等人(2016)依据外部知识信息构建类比池化来实现零样本动作识别;但是这些方法都不能进行端到端的训练。Gao等人(2019)对上述方法进行改进,一方面将对象作为零样本动作识别的属性,将知识图谱(Speer等,2017)结合到上述方法中,另一方面使用图卷积网络提取外部知识,该方法以端到端的方式显式地建立对象和动作类别之间的关系。
本文在Gao等人(2019)方法的基础上,提出了一个基于多模态融合的零样本人体动作识别框架,与以往大多数基于外部信息与图像的特征融合或者仅对单一图像特征进行研究的方法不同,本文方法更注重与动作状态最相关的传感器特征对识别效果的影响,并进一步将每个动作的传感器特征与图像特征进行融合,以实现对单一图像特征进行补充。
1.3 图卷积神经网络
图卷积神经网络(Kipf和Welling,2017)是一种将卷积神经网络推广到图结构数据上以进行特征提取的方法,因具有可直接应用于图数据、使用图的结构信息和能够有效挖掘图数据等优势而广泛应用于动作识别中。Lee等人(2018)利用门控图神经网络对知识图建模以描述多个标签之间的关系,但此方法仅为所有类别生成一个分类器,并且在训练阶段没有合并不可见类的标签;Gao等人(2018)设计了一个graph convLSTM模型来同时识别视频片段中的局部知识结构,并且对连续视频片段之间的动态变化建模以提升视频分类效果;Wang等人(2018)通过将图卷积网络中每个节点的语义嵌入作为输入语义来设计零样本识别模型,但该方法仅考虑标签—标签的关系而没有利用属性。
为了更好地从传感器特征和视频中提取信息,本文基于图卷积神经网络设计了分类模块和视频特征提取模块,利用知识图谱(Speer等,2017)对传感器特征、动作以及从视频提取出的对象建模,并直接采用分类损失优化整个框架,在训练过程中,模型为每个动作学习了不同的分类器,具有良好的泛化能力。
2 方法
2.1 问题定义
在基于多模态融合的零样本人体动作识别中,本文从具有
$ \boldsymbol{D}^{s}=\left\{\boldsymbol{F}^{s}, \boldsymbol{Y}^{s}\right\} $ |
式中,
同样,本文从具有
$ \boldsymbol{D}^{u}=\left\{\boldsymbol{F}^{u}, \boldsymbol{Y}^{u}\right\} $ |
式中,
本文模型以视频特征和传感器特征作为输入,输出为零样本人体动作识别的准确率,准确率的大小代表模型识别性能的优劣。
2.2 整体框架
本文整体框架主要由传感器特征提取模块、分类模块和视频特征提取模块构成。首先从传感器数据中提取传感器特征(
2.3 传感器特征提取模块
本文使用Zhang等人(2019)提出的用于传感器信号特征提取的卷积神经网络模型,利用三轴加速度数据和心率数据识别人体动作的传感器特征。模型结构如图 4所示(图中,Conv表示卷积层,MaxPool表示最大池化层,FC表示全连接层)。
如问题定义部分所述,
$ \left\{\left(\boldsymbol{a}_{1}, \boldsymbol{h}_{1}\right),\left(\boldsymbol{a}_{2}, \boldsymbol{h}_{2}\right), \cdots,\left(\boldsymbol{a}_{T}, \boldsymbol{h}_{T}\right)\right\} $ |
式中,
对于具有x、y与z轴3个方向的加速度数据
$ \boldsymbol{a c c}_{t}^{s}={CONV}_{2}\left(\boldsymbol{a}_{t}\right)=\boldsymbol{a}_{t} * \boldsymbol{\varGamma}_{2} $ | (1) |
式中,CONV(·)和表示卷积操作,
对于只有单一方向的心率数据
$ \boldsymbol { hea }_{t}^{s}=C O N V_{1}\left(\boldsymbol{h}_{t}\right)=\boldsymbol{h}_{t} * \boldsymbol{\varGamma}_{1} $ | (2) |
式中,
通过上述卷积操作,本文获得加速度特征与心率特征,并将二者串联起来得到传感器信号特征
$ \boldsymbol{e}_{t}^{s}=\boldsymbol{a c c}_{t}^{s} \oplus \boldsymbol{h e a}_{t}^{s} $ | (3) |
为了增加传感器特征的语义信息,本文还保留了输出层前的全连接层的特征
$ \boldsymbol{g}_{t}^{s}=\boldsymbol{e}_{t}^{s} \oplus \boldsymbol{c}_{t}^{s} $ | (4) |
至此,每个动作的传感器特征
$ \boldsymbol{G}^{s}=\left[\boldsymbol{g}_{1}^{s}, \boldsymbol{g}_{2}^{s}, \cdots, \boldsymbol{g}_{T}^{s}\right] $ |
接下来,本文利用带有softmax激活函数的全连接层生成传感器特征对应动作类别的概率分布
$ y_{\text {seen }}^{s}=\sigma\left(W \boldsymbol{G}^{s}+b\right) $ | (5) |
式中,
$ \mathcal{L}_{\text {seen }}=-\sum\limits_{s}^{S} y^{s} \log y_{\text {seen }}^{s} $ | (6) |
2.4 分类模块
图卷积网络通过有效挖掘图数据和使用图的结构信息来提取有用的特征向量。本文使用Kipf和Welling(2017)提出的图卷积网络构建模型。给定具有
$ \boldsymbol{Z}=\hat{\boldsymbol{D}}^{-\frac{1}{2}} \hat{\boldsymbol{A}} \hat{\boldsymbol{D}}^{-\frac{1}{2}} \boldsymbol{X}^{\mathrm{T}} \boldsymbol{W} $ | (7) |
式中,
从图卷积网络中受到启发,本文的分类模块将动作的传感器特征词、动作以及对象名称的词向量作为图的节点,并在训练阶段利用图卷积网络从可见类(
分类模块采用
2.5 视频特征提取模块
与分类模块类似,本文的视频特征提取模块利用图卷积网络将每个动作的属性、对象分数和传感器特征映射到属性—特征空间中,最后使用分类模块生成的分类器对每个动作的属性和传感器特征进行评估。
为了获得对象分数,本文将视频按帧截取成图像,并使用GoogLeNet模型(Szegedy等,2015)得到每幅图像对应12 988个类别的概率(Mettes等,2016),随后为每幅图像选取前
$ \hat{\boldsymbol{V}}_{s}=\gamma \sum\limits_{i=1}^{I} \alpha_{s, i} \boldsymbol{r}\left(\boldsymbol{v}_{i}\right)+\boldsymbol{v}_{s} $ | (8) |
式中,
$ \alpha_{s, i}=\frac{1}{C_{i}} \exp \left(\boldsymbol{b}\left(\boldsymbol{v}_{i}\right)^{\mathrm{T}} \boldsymbol{c}\left(\boldsymbol{v}_{s}\right)\right) $ | (9) |
式中,
为了充分利用动作间的显式关系,本文在分类模块和视频特征提取模块使用ConceptNet(Speer等,2017)的英文子图,并采用字符串匹配的方法将动作、对象与传感器特征词映射到ConceptNet中的节点。为了不丢失主要的语义信息,本文将某些没有对应节点的特征词进行字母大小写和连接符替换,转化为在ConceptNet中可以找到的常用词,例如,将“Used_car”替换成“used_car”。构建知识图谱最重要的是确定节点之间的关系,不同的知识图谱具有不同类型的关系,在利用知识图谱构图时,本文使用Marino等人(2017)的方法,将节点与节点之间的关系简化为邻接矩阵来有效地表示语义一致性并传送节点之间的信息,在训练过程中,本文通过固定邻接矩阵来保持原有的知识结构。
接下来,本文利用上述从视频中得到的相关特征和传感器特征
1) 本文为每个视频帧取前20个最相关的对象,执行去重操作后最终得到1 050个对象,并把它们作为图中节点的一部分。
2) 同样地,本文将传感器特征
在这里,本文使用传感器的特征词向量与对象类别的词向量作为
2.6 训练与预测
分类模块得到的输出矩阵
$ \hat{y}_{n}^{s}=\sigma\left(q_{n}^{s}\right) $ | (10) |
$ q_{n}^{s}=\left(\boldsymbol{w}_{s}^{\mathrm{cls}}\right){ }^{\mathrm{T}} \boldsymbol{Z}_{s}^{\text {vid }} $ | (11) |
式中,
$ \mathcal{L}_{\mathrm{obj}}=-\frac{1}{N_{S}} \sum\limits_{n=1}^{N_{S}} \sum\limits_{s=1}^{S} y_{n}^{s} \log \left(\hat{y}_{n}^{s}\right) $ | (12) |
式中,
在训练过程中,基于多模态融合的零样本人体动作识别模型不仅可以优化可见类的分类器,还可以通过对分类模块与视频特征提取模块之间的关系建模,将其推广到不可见类别中进行泛化学习。在测试过程中,模型使用分类模块生成的不可见类的分类器对视频特征提取模块中不可见类动作的对象特征和传感器特征进行分类,以实现零样本人体动作识别
$ q_{n}^{u}=\left(\boldsymbol{w}_{u}^{\mathrm{cls}}\right)^{\mathrm{T}} \boldsymbol{Z}_{u}^{\text {vid }} $ | (13) |
式中,
3 实验
3.1 数据集
第一人称视频和人体加速度数据可以从不同角度全面地描述人类的活动模式和状态。本文采用Stanford-ECM数据集(Nakamura等,2017)进行实验,此数据集包括23种日常活动动作和与采集视频同步的心率和加速度数据,视频的持续时间从3 min到51 min不等。
为了保证实验结果的客观性,本文以Stanford-ECM数据集中的用户信息作为训练数据集和测试数据集的划分原则,即:同一用户的数据只能出现在训练集或者测试集中。由于该数据集样本分布不匀衡,比如上楼梯和下楼梯、骑车和骑车上坡等动作,不满足本文数据集划分原则,因此,本文选择满足数据集划分的16类动作进行实验,所选类别名称如表 1所示。
表 1
实验所选动作名称
Table 1
Action classes selected in the experiment
动作名称 | 动作名称 | |
bicycling | talking standing | |
calisthenics | talking sitting | |
walking | sitting tasks | |
descending stairs | meeting | |
presenting | eating | |
driving | standing in line | |
shopping | riding | |
food preparation | reading |
3.2 数据集划分及实验结果比对
3.2.1 数据集划分
本文采用Xu等人(2017)的方法对数据集进行划分,首先选取50%的动作用于模型训练,另外50%的动作为不可见类用于模型测试,然后对16个动作生成50个独立的划分,并输出识别的平均准确率以进行实验性能评估。
3.2.2 不同方法结果对比
为了证明本文方法的有效性与优良性,本文选择了3种不同的方法进行实验,所选方法如下:
1) ZSIC-GAN (zero-shot image classification based on generated countermeasure network)(魏宏喜和张越,2019)。该方法通过生成不可见类的图像特征使得零样本分类任务转化为传统图像分类任务。
2) TS-GCN(zero-shot action recognition via two-stream GCNs and knowledge graphs)(Gao等,2019)。该方法通过一个融合知识图谱的端到端框架来实现零样本人体动作识别。
3) ZSAR-MF。该方法为本文提出的基于多模态融合的零样本人体动作识别模型,通过融合传感器和视频两种模态特征实现零样本动作识别。
本文为每个实验取前5个最大的识别准确率,结果对比如表 2所示。
表 2
不同方法结果比较
Table 2
Comparison of results of different methods
方法 | 准确率/% | ||||
ZSIC-GAN | 35.3 | 33.7 | 30.2 | 28.1 | 26.8 |
TS-GCN | 42.4 | 40.9 | 39.4 | 37.9 | 36.4 |
ZSAR-MF | 47.0 | 45.5 | 42.4 | 40.9 | 39.4 |
注:加粗字体为每列最优值。 |
从表 2在Stanford-ECM数据集(Nakamura等,2017)实现的零样本人体动作识别的结果可知:
1) TS-GCN方法的结果高出ZSIC-GAN方法8%左右,这证明了知识图谱利用外部语义信息对动作描述的辅助作用和图卷积网络的优势。
2) 本文方法比ZSIC-GAN方法和TS-GCN方法识别结果分别高出12%和4%左右,这证明对于零样本人体动作识别来说,传感器特征和视频特征融合的方法,在一定程度上优于现有方法。
3.2.3 图卷积不同层数结果对比
4 结论
本文提出基于多模态融合的零样本人体动作识别框架,该框架包含传感器特征提取模块、分类模块和视频特征提取模块3个部分,整体融合了传感器特征和视频特征,利用知识图谱对两种特征共同建模,并采用分类损失函数对整个网络进行优化。
1) 本文进行了基于多模态融合的零样本人体动作识别工作,并在Stanford-ECM数据集上进行了不同的实验,对比结果表明本文提出的ZSAR-MF模型比基于单模态数据的零样本识别模型在识别准确率上提高了4 %左右。
2) 本文采用字符串匹配的方法将动作、对象与传感器特征词映射到ConceptNet中的节点,该操作会丢失一小部分语义信息,产生这种不足的原因是经GoogLeNet模型训练得出的对象词与知识图谱节点中的词不完全匹配。
3) 本文进行了融合两种模态的工作,暂未对其他模态展开研究,在未来工作中,将完善基于多模态融合的零样本人体动作识别方法,如在现有实验基础上融合音频特征等。
参考文献
-
Akata Z, Reed S, Walter D, Lee H and Schiele B. 2015. Evaluation of output embeddings for fine-grained image classification//Proceedings of 2015 IEEE Conference on Computer Vision and Pattern Recognition. Boston, USA: IEEE: 2927-2936 [DOI: 10.1109/CVPR.2015.7298911]
-
Farhadi A, Endres I, Hoiem D and Forsyth D. 2009. Describing objects by their attributes//Proceedings of 2009 IEEE Conference on Computer Vision and Pattern Recognition. Miami, USA: IEEE: 1778-1785 [DOI: 10.1109/CVPR.2009.5206772]
-
Frome A, Corrado G S, Shlens J, Bengio S, Dean J, Ranzato M A and Mikolov T. 2013. DeViSE: a deep visual-semantic embedding model//Proceedings of the 26th International Conference on Neural Information Processing Systems. Lake Tahoe, USA: ACM: 2121-2129
-
Gan C, Yang Y, Zhu L C, Zhao D L, Zhuang Y T. 2016. Recognizing an action using its name: a knowledge-based approach. International Journal of Computer Vision, 120(1): 61-77 [DOI:10.1007/s11263-016-0893-6]
-
Gao J Y, Zhang T Z and Xu C S. 2018. Watch, think and attend: end-to-end video classification via dynamic knowledge evolution modeling//Proceedings of the 26th ACM International Conference on Multimedia. Seoul, Korea(South): ACM: 690-699 [DOI: 10.1145/3240508.3240566]
-
Gao J Y, Zhang T Z and Xu C S. 2019. I know the relationships: zero-shot action recognition via two-stream graph convolutional networks and knowledge graphs//Proceedings of the AAAI Conference on Artificial Intelligence. Palo Alto, USA: AAAI: 8303-8311 [DOI: 10.1609/aaai.v33i01.33018303]
-
He J Y. 2019. Research on Multimodal Human Motion Recognition. Beijing: Beijing University of Posts and Telecommunications (何俊佑. 2019. 多模态人体动作识别研究. 北京: 北京邮电大学)
-
Jain M, Van Gemert J C, Mensink T and Snoek C G M. 2015. Objects2action: classifying and localizing actions without any video example//Proceedings of 2015 IEEE International Conference on Computer Vision. Santiago, Chile: IEEE: 4588-4594 [DOI: 10.1109/ICCV.2015.521]
-
Jing Y, Hao J S, Li P. 2019. Learning spatiotemporal features of CSI for indoor localization with dual-stream 3D convolutional neural networks. IEEE Access, 7: 147571-147585 [DOI:10.1109/ACCESS.2019.2946870]
-
Kipf T N and Welling M. 2017. Semi-supervised classification with graph convolutional networks//Proceedings of the 5th International Conference on Learning Representations. Toulon, France: OpenReview: 1-6
-
Kiros R, Salakhutdinov R and Zemel R. 2014. Multimodal neural language models//Proceedings of the 31st International Conference on Machine Learning. Beijing, China: Journal of Machine Learning Research: 595-603
-
Lee C W, Fang W, Yeh C K and Wang Y C F. 2018. Multi-label zero-shot learning with structured knowledge graphs//Proceedings of 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, USA: IEEE: 1576-1585 [DOI: 10.1109/CVPR.2018.00170]
-
Liu J G, Kuipers B and Savarese S. 2011. Recognizing human actions by attributes//Proceedings of the 24th IEEE Conference on Computer Vision and Pattern Recognition. Colorado Springs, USA: IEEE: 3337-3344 [DOI: 10.1109/CVPR.2011.5995353]
-
Liu J W, Ding X H, Luo X L. 2020. Survey of multimodal deep learning. Computer Application Research, 37(6): 1601-1614 (刘建伟, 丁熙浩, 罗雄麟. 2020. 多模态深度学习综述. 计算机应用研究, 37(6): 1601-1614) [DOI:10.19734/j.issn.1001-3695.2018.12.0857]
-
Marino K, Salakhutdinov R and Gupta A. 2017. The more you know: using knowledge graphs for image classification//Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu, USA: IEEE: 20-28 [DOI: 10.1109/CVPR.2017.10]
-
Mettes P, Koelma D C and Snoek C G M. 2016. The ImageNet shuffle: reorganized pre-training for video event detection//Proceedings of 2016 ACM on International Conference on Multimedia Retrieval. New York, USA: ACM: 175-182 [DOI: 10.1145/2911996.2912036]
-
Mettes P and Snoek C G M. 2017. Spatial-aware object embeddings for zero-shot localization and classification of actions//Proceedings of 2017 IEEE International Conference on Computer Vision. Venice, Italy: IEEE: 4453-4460 [DOI: 10.1109/ICCV.2017.476]
-
Nakamura K, Yeung S, Alahi A and Li F F. 2017. Jointly learning energy expenditures and activities using egocentric multimodal signals//Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu, USA: IEEE: 6817-6826 [DOI: 10.1109/CVPR.2017.721]
-
Ngiam J, Khosla A, Kim M, Nam J, Lee H and Ng A Y. 2011. Multimodal deep learning//Proceedings of the 28th International Conference on International Conference on Machine Learning. Bellevue, USA: ICML: 689-696
-
Pennington J, Socher R and Manning C. 2014. GloVe: global vectors for word representation//Proceedings of 2014 Conference on Empirical Methods in Natural Language Processing. Doha, Qatar: ACL: 1532-1543 [DOI: 10.3115/v1/d14-1162]
-
Piergiovanni A J and Ryoo M S. 2020. Learning multimodal representations for unseen activities//Proceedings of 2020 IEEE Winter Conference on Applications of Computer Vision. Snowmass Village, USA: IEEE: 506-515 [DOI: 10.1109/WACV45572.2020.9093612]
-
Speer R, Chin J and Havasi C. 2017. ConceptNet 5.5: an open multilingual graph of general knowledge//Proceedings of the 31st AAAI Conference on Artificial Intelligence. San Francisco, USA: AAAI: 4444-4451
-
Srivastava N, Salakhutdinov R. 2014. Multimodal learning with deep boltzmann machines. The Journal of Machine Learning Research, 15(1): 2949-2980
-
Szegedy C, Liu W, Jia Y Q, Sermanet P, Reed S E, Anguelov D, Erhan D, Vanhoucke V and Rabinovich A. 2015. Going deeper with convolutions//Proceedings of 2015 IEEE Conference on Computer Vision and Pattern Recognition. Boston, USA: IEEE: 1-9 [DOI: 10.1109/CVPR.2015.7298594]
-
Wang X L, Ye Y F and Gupta A. 2018. Zero-shot recognition via semantic embeddings and knowledge graphs//Proceedings of 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, USA: IEEE: 6857-6866 [DOI: 10.1109/CVPR.2018.00717]
-
Wei H X, Zhang Y. 2019. Zero-shot image classification based on generative adversarial network. Journal of Beijing University of Aeronautics and Astronautics, 45(12): 2345-2350 (魏宏喜, 张越. 2019. 基于生成对抗网络的零样本图像分类. 北京航空航天大学学报, 45(12): 2345-2350) [DOI:10.13700/j.bh.1001-5965.2019.0363]
-
Xu X, Hospedales T, Gong S G. 2017. Transductive zero-shot action recognition by word-vector embedding. International Journal of Computer Vision, 123(3): 309-333 [DOI:10.1007/s11263-016-0983-5]
-
Xu X, Hospedales T M and Gong S G. 2016. Multi-task zero-shot action recognition with prioritised data augmentation//Proceedings of the 14th European Conference on Computer Vision. Amsterdam, the Netherlands: Springer: 343-359 [DOI: 10.1007/978-3-319-46475-6_22]
-
Zhang W M, Huang Y, Yu W T, Yang X S, Wang W and Sang J. T. 2019. Multimodal attribute and feature embedding for activity recognition//Proceedings of the ACM Multimedia Asia. Beijing, China: ACM: 1-7 [DOI: 10.1145/3338533.3366592]
-
Zhu Y, Long Y, Guan Y, Newsam S and Shao L. 2018. Towards universal representation for unseen action recognition//Proceedings of 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, USA: IEEE: 9436-9445 [DOI: 10.1109/CVPR.2018.00983]