基于双流网络与支持向量机融合的人体行为识别
童安炀1,2, 唐超1,2, 王文剑3
1.合肥学院 人工智能与大数据学院 合肥 230601
2.安徽大学 多模态认知计算安徽省重点实验室 合肥 230601
3.山西大学 计算机与信息技术学院 太原 030006
通信作者:

唐 超,博士,副教授,主要研究方向为机器学习、计算机视觉.E-mail:tangchao77@sina.com.

作者简介:

童安炀,硕士研究生,主要研究方向为深度学习、计算机视觉.E-mail:1350466625@qq.com.

王文剑,博士,教授,主要研究方向为机器学习、计算智能.E-mail:wjwang@sxu.edu.cn.

摘要

传统的双流卷积神经网络存在难以理解长动作信息的问题,并且当长时间流信息损失时,模型泛化能力降低.针对此问题,文中提出基于双流网络与支持向量机融合的人体行为识别方法.首先,提取视频中每帧RGB图像及其对应垂直方向的稠密光流序列图,得到视频中动作的空间信息和时间信息,分别输入空间域和时间域网络进行预训练,预训练完成后进行特征提取.然后,针对双流网络提取的维度相同的特征向量执行并联融合策略,提高特征向量的表征能力.最后,将融合后的特征向量输入线性支持向量机中进行训练及分类处理.在KTH、UCF sports数据集上的实验表明文中方法具有较好的分类效果.

关键词: 双流网络; 支持向量机; 特征融合; 光流
中图分类号:TP391.41
Human Action Recognition Fusing Two-Stream Networks and SVM
TONG Anyang1,2, TANG Chao1,2, WANG Wenjian3
1. School of Artificial Intelligence and Big Data, Hefei University, Hefei 230601
2. Anhui Provincial Key Laboratory of Multimodal Cognitive Com-putation, Anhui University, Hefei 230601
3. School of Computer and Information Technology, Shanxi University, Taiyuan 030006
Corresponding author:
TANG Chao, Ph.D., associate professor. His research interests include machine learning and computer vision.

About Author:
TONG Anyang, master student. His research interests include deep learning and computer vision.
WANG Wenjian, Ph.D., professor. Her research interests include machine learning and computing intelligence.

Abstract

It is difficult for the traditional two-stream convolutional neural network to understand the long-motion information, and when the long-time stream information is lost, the generalization ability of the model decreases. Therefore, a method for human action recognition fusing two-stream network and support vector machine is proposed. Firstly, RGB images of each frame in the video and their corresponding dense optical flow sequence diagrams in the vertical direction are extracted, and the spatial information and time information of actions in the video are obtained. The information is input into the spatial domain and time domain networks for pre-training, and feature extraction is carried out after pre-training. Secondly, the feature vectors with the same dimension extracted from the two-stream network are fused in parallel to improve the representation ability of feature vectors. Finally, the fused feature vectors are input into the linear support vector machine for training and classification. The experimental results based on the standard open database proves that the classification effect of the proposed method is good.

Key words: Key Words Two-Stream Network; Support Vector Machine; Feature Fusion; Optical Flow

本文责任编委 陈松灿

Recommended by Associate Editor CHEN Songcan

人体行为识别的目的是通过系列性的观察, 从不同的环境中识别不同的行为.基于视觉的人体行为识别应用领域广泛, 包括视频监控[1]、无人驾驶[2]、医疗保健[3]、人机交互[4]等.然而, 在现实生活中, 人体动作的动态性、环境的复杂性及物体的尺度变化等, 让准确有效的人体行为识别系统依然是计算机视觉中一个具有挑战性的研究领域.

目前, 人体行为识别方法主要分为2类:基于传统的手工特征提取方法和深度学习方法.手工特征提取方法通常包括3个连续的步骤:特征提取、局部描述子计算、分类[5].Sullivan等[6]将边缘信息与标记的关键姿态及部位进行匹配, 再根据轮廓信息在连续帧之间进行跟踪.Oikonomopoulos等[7]提出一种检测器, 涉及计算特定时空位置周围圆柱形邻域的熵特征, 通过突出运动特征以表示视频中的不同位置.Patrona等[8]引入自动运动数据和动态运动数据加权, 在动作参与的前提下调整人体数据的重要性, 实现更有效的动作检测和识别.

由于传统的人工特征提取方法设计复杂, 普适性较低, 难以提取深层特征, 因此, 深度学习方法开始替代传统的手工特征提取方法.Karpathy等[9]将视频分解为连续RGB帧, 输入卷积神经网络(Con-volution Neural Networks, CNN).然而, 单个神经网络难以充分提取视频中的动作信息, Simonyan等[10]提出双流卷积网络(Two-Stream Convolutional Net-works, TCN), 有效利用时间流信息, 提供多特征提取及融合方法, 进一步提高识别的准确率.Ji等[11]提出3D卷积神经网络(3D-CNN), 在卷积层中对空间维度和时间维度进行3D卷积, 得到时空特征, 提高性能.为了让神经网络具有长期记忆, Hochreiter等[12]提出长短期记忆网络(Long Short-Term Me-mory, LSTM), 使用非线性机制, 增强隐藏状态, 使用简单的学习门控制函数实现状态传播, 对于连续数据建模具有较优效果.Wang等[13]提出双流3D-CNN, 通过多个特征的互补信息识别任意大小和长度视频中的人类行为.Li等[14]提出视频长短时记忆网络(VideoLSTM), 利用视频中的空间相关性形成注意力映射, 通过动作标签定位动作的时空位置, 对动作识别及定位具有较优效果.

在传统双流网络中, 大都获取视频中目标运动的长时间流信息, 而当视频中长时间流信息出现损失时, 往往会对识别结果产生较大影响.为了研究RGB图像与短时间流信息在双流网络下特征结合后的动作表征能力, 以及进一步提高人体行为识别的准确率, 本文提出基于双流网络与支持向量机(Support Vector Machine, SVM)融合的人体行为识别方法.相比CNN, 在相同数据集上, SVM训练时间更短, 鲁棒性更好.首先, 提取视频中的每帧RGB图像及其对应垂直方向的稠密光流序列图, 得到视频中动作的空间信息和时间信息, 分别输入空间域和时间域网络进行预训练, 预训练完成后进行特征提取.然后, 对双流网络提取的维度相同的特征向量执行并联融合策略, 提高特征向量的表征能力.最后, 将融合后的特征向量输入线性支持向量机中进行训练及分类处理.在标准公开数据集KTH和UCF sports上的实验表明本文方法具有较优的分类效果.

1 基于双流网络与支持向量机融合的人体行为识别

本文提出的基于双流网络与SVM融合的人体行为识别方法总体框架如图1所示.

图1 本文方法框图Fig.1 Framework of the proposed method

本文方法主要分为3部分:时空特征提取、时空特征融合、支持向量机分类.首先读取视频中得到的图像, 经过预处理后输入2个网络, 提取时空特征.然后对CNN提取的特征向量进行并联融合.最后使用融合后的特征向量对线性分类器SVM进行训练及分类, 设置分类准确率的平均值作为最后识别结果, 完成人体行为识别.

1.1 时空特征提取

视频中的动作表征对识别系统的准确性具有重要意义.本文方法的双流网络结构是以双流模型[10]为基础, 按照实验需要进行改进并提取特征.网络分为空间域和时间域, 空间域上输入单帧RGB图像, 经过灰度化和规范化处理后进行卷积、池化等操作.训练完成后可提取视频帧中的目标物体在空间上的表征.在时间域上, 将相邻帧间垂直方向的光流图进行同样的数据预处理后输入网络, 训练完成后得到动作的短时信息.两条网络通过得分融合策略获取双流网络的分类结果.双流卷积神经网络模型结构如图2所示.

图2 双流卷积神经网络模型结构Fig.2 Two-stream convolutional neural network

1.1.1 空间域

空间域包含数据预处理、5个卷积层、5个激活层、3个池化层、2个全连接层、2个失活层、2次数据归一化处理, 采用自适应矩估计(Adaptive Moment Estimation, Adam)优化算法进行网络参数优化, 交叉熵损失(Cross Entropy Loss)函数进行损失值的计算.具体操作如下.

1)利用CV库上COLOR_BGR2GRAY对输入的RGB图像进行灰度化处理, 并将图像尺寸规格化为120× 160后输出.

2)卷积层通过多个卷积核对上一层的输入进行卷积运算, 并以0填充的方式保证输入、输出特征图维度的一致及边缘信息的保留. xi, jl表示第l层(i, j)点的输入值, Yi, jl表示第l层输出的第(i, j)点的值.卷积计算过程如下:

其中, G表示卷积核, bl表示偏置项, mh× nw表示第l层中局部感受野的窗口大小.

3)激活层选择ReLU函数对网络进行稀疏化处理, 加快训练速度及防止梯度消失, 即

f(x)=max(0, x).

4)池化层以降低特征面的分辨率为目的, 获取空间不变性的特征, 提高模型的容错率.本文选取最大池化法对特征进行二次提取.

5)全连接层可整合卷积层及池化层中具有类别区分性的局部信息[15], 解决非线性问题, 起到分类的作用.

6)失活层的目的是让神经元以一定的概率失活, 防止网络出现过拟合现象.通过多组实验对比, 当设置概率P=0.2时, 网络在防止过拟合的情况下达到最佳的分类效果.

7)两次数据归一化操作是为了加快模型的收敛速度, 提高模型的非线性表达能力.

8)模型选取交叉熵损失函数, 衡量真实概率分布与预测概率分布之间的差异性, 进行损失值的计算:

Loss=- i=1np(xi)ln(q(xi)),

其中, n为样本类别数, p(xi)、q(xi)分别为变量xi对应的真实概率分布和预测概率分布.

9)预训练完成后的空间域网络在第一层全连接层后输出空间特征向量为

fspace=[x1, x2, …, x3600].

1.1.2 时间域

时间域的输入是相邻帧间对应的垂直方向的光流图, 选用Farneback光流法[16]进行光流提取.

Farneback光流法基于多项式展开的连续两帧空间图像稠密光流计算算法, 计算图像上所有像素点的运动以提取稠密光流[17].主要步骤为多项式展开, 使用二次多项式近似每个像素的某个邻域, 将2幅图像的多项式展开结果用于位移估计.采用迭代的多尺度位移估计方法获得较优性能.对于大尺度运动产生的光流, 具有较好的提取效果.将二次多项式Vt(x)近似为某帧图像的空间信息, 在理想状态下进行位移估计:

Vt(x)=xTA1x+ bT1x+c1,

其中, x表示二维坐标点(x, y)T, A表示2× 2的对称矩阵, b表示向量, c表示标量.Vt帧图像在经过理想位移后得到下一帧图像:

Vt+1(x)=Vt(x-d)=xTA2x+ bT2x+c2.

在恒定像素值假设的前提下, 使Vt(x)和Vt+1(x)的对应项系数相等, 可得

解出每个像素点位移量:

d=- 12A1-1(b2-b1).

计算得到每个像素点位移d后, 可获得整个图像的光流场D(x, y).

利用Farneback光流法进行稠密光流的提取, 将垂直方向的光流信息Dy, i, j进行灰度化处理, 得到Dt.例如, 图3为UCF sports数据集上相邻视频帧对应的光流图.

图3 Farneback光流法效果示意图Fig.3 Illustration of Farneback optical flow method

预处理后的光流图输入卷积层中, 利用卷积核组提取动作的多个局部特征图, 经过池化等操作, 进一步提高特征图的表征能力, 最后在全连接层进行分类.相比空间域, 在时间域的处理过程中, 数据输入后在卷积层2上不进行数据归一化操作.预训练完成后的时间域网络在第一层全连接层后输出时间特征向量:

ftime=[y1, y2, …, y3600].

1.2 时空特征融合

双流网络经过预训练后分别提取时间特征向量、空间特征向量, 而单一特征向量的表征能力不足, 训练的模型泛化能力不高.大量文献[18, 19]表明, 多种特征的融合可提升模型泛化能力, 表现在局部特征的丢失信息可使用全局特征补偿, 底层特征用于补充高级特征.目前主流的特征融合方法分3种:像素级特征融合方法、特征级特征融合方法、决策级特征融合方法[20, 21].本文通过实验对比, 选取特征级特征融合方法中的并行特征融合方法, 取代最大值融合方法和拼接融合方法, 加强特征向量的表征能力, 提高模型的泛化能力.

预训练双流网络后, 空间域和时间域分别在第一层全连接层后输出提取的空间特征向量fspace和时间特征向量ftime.并行特征融合后得到的特征向量如下:

ffusion=[x1+y1, x2+y2, …, x3600+y3600].

将融合后得到的ffusion放入SVM中进行训练和测试, 提高识别的准确率.

1.3 支持向量机分类

SVM是基于结构风险最小化理论的有监督学习算法[22], 将低维数据通过核函数投影到高维空间, 通过寻找最优分割超平面实现分类.多分类SVM任务的实现可分为3类.

1)将多分类任务拆分成多个二分类SVM任务实现, 如一对一(One-Versus-One, OVO)、一对其余(One-Versus-Rest, OVR)等.

2)直接寻找最优化问题的解.

3)将SVM与其它可实现多分类的机器学习算法结合, 如K近邻、决策树算法等.

本文选择OVR策略, 以多个二分类SVM完成多分类SVM任务.若数据集上有N种类别, 分别将其中一个类别设置为正, 其余类别设置为负, 以此训练N种分类器.若分类结果仅出现一个正, 输出正类别; 若出现多个分类器结果为正, 选择置信度最大的正类别输出.

以KTH数据集分类为例, 需要分别训练6个二分类SVM, 区分类别m和其余类别n, 即求解如下问题:

其中:w为法向量, 决定超平面的方向; b为位移项;

yi∈ {m, n}, i=1, 2, …, 289 116; 函数ϕ 将输入的低维样本ffusion映射到高位空间; ε i为松弛变量, C为正则化系数.

当训练好6个分类器后, 若只有一个分类器输出为正, 标记该动作为分类结果; 若出现多个分类器识别为正, 选择置信区间最大的动作为分类结果.

2 实验及结果分析
2.1 实验环境

本文实验在Windows10操作系统下进行, 选择Pytorch框架为深度学习环境.双流网络设置学习率η =0.001.一定范围内的批尺寸大小越大, 收敛速度越快, 训练过程的效率也越高, 本文批尺寸大小依据实验硬件条件选择合理范围内的最优值, 为100.多分类器SVM选取linear线性核函数, 用于提高训练精度和效率.核函数参数γ =10, 惩罚系数C=1, 通过对比实验可证实, 相比C更大或更小时, SVM会寻找到间隔最大的决策边界进行分类.

在常用的2个标准人体行为识别库— — KTH数据集[23]和UCF sports数据集[24]上进行有效性实验.

KTH数据集是用固定摄像机以25帧/秒的帧率记录的一个背景简单、视图单一的数据集, 共599个视频序列.由25名受试者在4种场景下进行理想表演, 分别为户外、户外规模变化、户外穿着不同衣服、室内.运动状态分为Walking, Jogging, Running, Boxing, Hand waving, Hand clapping.

UCF sports数据集是从ESPN和BBC等电视频道中收集的150个体育视频.这些动作被记录在真实的运动环境中, 展示背景、光照条件和遮挡的变化, 成为一个具有挑战性的数据集.具体运动状态分为:Diving, Golf Swing, Kicking, Lifting, Riding Horse, Running, Skateboarding, Swing-Bench, Swing-Side, Walking.

在实验中, 对KTH、UCF sports数据集上的视频进行分解, 分别得到289 116幅、9 282幅视频帧及对应的光流图.为了提高方法的泛化能力, 降低因数据量不足带来的误差, 采用十折交叉验证的方法对数据集进行划分, 轮流将十份中的一份作为测试集, 剩余九份作为训练集, 进行双流网络训练与测试.同时, 为了确保实验的真实可靠性, 在SVM上进行分类任务时采用三折交叉验证方法, 取3次测试结果的平均值作为最后结果.

评价标准采用识别准确率:

Accuracy= TPTotal× 100%,

其中, TP表示分类正确的样本数, Total表示分类的样本总数.识别准确率对模型整体的泛化能力有更直观的表达.

2.2 实验结果

实验选取如下对比方法:Two-stream Fusion[25]、CNN KNN+SVM[26]、Multi-stream CNN[27]、双流网络.

各方法在2个数据集上的识别准确率对比如表1所示.由表可知, 本文方法在KTH数据集上的分类效果最优.Two-stream Fusion构建以牛津大学视觉几何组(Visual Geometry Group, VGG)开发的系列型网络VGG-16和VGG-Medium(VGG-M)为基础的双流网络, 设置批尺寸大小为98, 学习率η =0.001, 精度达到饱和后η 降低90%.通过强调学习空间、时间网络的卷积层之间的特征关系进行预测, 但未避免方法对长时间流信息理解不充分的问题.CNN KNN+SVM构建AlexNet网络, 在迁移学习的背景下, 使用预训练好的网络结合混合K近邻和SVM分类的方法, 取得较优的识别效果, 但未能利用时间信息对动作特征进行表征, 在真实场景下的动作预测效果并不显著.Multi-stream CNN构建以VGG-Fast(VGG-f)、3D-CNN等网络为基础的3个双流网络, 基于整体检测的人体, 构建外观和运动流, 进行动作分类, 但依赖于局部运动部位的变化, 未理解整体运动信息, 会出现检测到错误目标的情况.

表1 各方法在2个数据集上的识别准确率 Table 1 Accuracies of different methods on 2 datasets %

KTH、UCF sports数据集上2种方法的行为识别混淆矩阵如图4、图5所示.混淆矩阵直观表示每个动作的准确性, 以及水平方向的真实动作与垂直方向的预测动作之间的对应关系.

图4 各方法在KTH数据集上的混淆矩阵Fig.4 Confusion matrix of different methods on KTH dataset

图5 各方法在UCF sports数据集上的混淆矩阵Fig.5 Confusion matrix of different methods on UCF sports dataset

由图4和图5可知, 本文方法在2个数据集上各类别的准确率均得到显著提升.在KTH数据集的Boxing、Hand clapping、Hand waving动作上实现100%的分类准确率, 其余动作因相似度较高且存在空白帧而出现损失.在UCF sports数据集的全部类别上实现近100%的准确率, 充分利用空间信息、时间信息对真实场景下的动作进行准确分类.

3 结束语

本文提出基于双流网络与SVM融合的人体行为识别方法.在双流卷积神经网络的基础上进行改进, 将提取的空间特征向量、时间特征向量进行融合, 采用支持向量机分类.在小规模数据集KTH和UCF sports上的分类效果显著, 验证本文方法的有效性.今后考虑将本文方法扩展到更复杂的数据集, 如IXMAS、UCF-50、UCF-101、HMDB-51数据集.本文方法在处理视频中空白帧较多和相机剧烈抖动的数据集时, 无法提取表征能力较强的特征向量, 降低模型的泛化能力, 这也是今后需要深入研究的地方.

参考文献
[1] BRÉMOND F, THONNAT M, ZÚÑIGA M. Video-Understand ing Framework for Automatic Behavior Recognition. Behavior Research Methods, 2006, 38(3): 416-426. [本文引用:1]
[2] RAMEZANI M, YAGHMAEE F. A Review on Human Action Ana-lysis in Videos for Retrieval Applications. Artificial Intelligence Review, 2016, 46(4): 485-514. [本文引用:1]
[3] AZKUNE G, NÚÑEZ-MARCOS A, ARGANDA-CARRERAS I. Vision-Based Fall Detection with Convolutional Neural Networks. Wireless Communications and Mobile Computing, 2017. DOI: 10.1155/2017/9474806. [本文引用:1]
[4] KOPPULA H S, SAXENA A. Anticipating Human Activities Using Object Affordances for Reactive Robotic Response. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2016, 38(1): 14-29. [本文引用:1]
[5] AL-FARIS M, CHIVERTON J, NDZI D, et al. A Review on Computer Vision-Based Methods for Human Action Recognition. Journal of Imaging, 2020, 6(6). DOI: 10.3390/jimaging6060046. [本文引用:1]
[6] SULLIVAN J, CARLSSON S. Recognizing and Tracking Human Action // Proc of the European Conference on Computer Vision. Berlin, Germany: Springer, 2002: 629-644. [本文引用:1]
[7] OIKONOMOPOULOS A, PATRAS I, PANTIC M. Spatiotemporal Salient Points for Visual Recognition of Human Actions. IEEE Transactions on Systems, Man, and Cybernetics(Cybernetics), 2006, 36(3): 710-719. [本文引用:1]
[8] PATRONA F, CHATZITOFIS A, ZARPALAS D, et al. Motion Analysis: Action Detection, Recognition and Evaluation Based on Motion Capture Data. Pattern Recognition, 2018, 76(11): 612-622. [本文引用:1]
[9] KARPATHY A, TODERICI G, SHETTY S, et al. Large-Scale Video Classification with Convolutional Neural Networks // Proc of the IEEE Conference on Computer Vision and Pattern Recognition. Washington, USA: IEEE, 2014: 1725-1732. [本文引用:1]
[10] SIMONYAN K, ZISSERMAN A. Two-Stream Convolutional Networks for Action Recognition in Videos // GHAHRAMANI Z, WELLING M, CORTES C, et al. , eds. Advances in Neural Information Processing Systems 27. Cambridge, USA: The MIT Press, 2014: 568-576. [本文引用:2]
[11] JI S W, XU W, YANG M, et al. 3D Convolutional Neural Networks for Human Action Recognition. IEEE Transactions on Pa-ttern Analysis and Machine Intelligence, 2013, 35(1): 221-231. [本文引用:1]
[12] HOCHREITER S, SCHMIDHUBER J. Long Short-Term Memory. Neural Computation, 1997, 9(8): 1735-1780. [本文引用:1]
[13] WANG X H, GAO L L, WANG P, et al. Two-Stream 3D convNet Fusion for Action Recognition in Videos with Arbitrary Size and Length. IEEE Transactions on Multimedia, 2018, 20(3): 634-644. [本文引用:1]
[14] LI Z Y, GAVRILYUK K, GAVVES E, et al. VideoLSTM Convolves, Attends and Flows for Action Recognition. Computer Vision and Image Understand ing, 2018, 166: 41-50. [本文引用:1]
[15] SAINATH T N, MOHAMED A, KINGSBURY B, et al. Deep Con-volutional Neural Networks for LVCSR // Proc of the IEEE International Conference on Acoustics, Speech and Signal Processing. Washington, USA: IEEE, 2013: 8614-8618. [本文引用:1]
[16] FARNEBÄCK G. Two-Frame Motion Estimation Based on Polynomial Expansion // Proc of the Scand inavian Conference on Image Analysis. Berlin, Germany: Springer, 2003: 363-370. [本文引用:1]
[17] GUAN Q, HUA M, HU H G. A Modified Grabcut Approach for Image Segmentation Based on Local Prior Distribution // Proc of the International Conference on Wavelet Analysis and Pattern Reco-gnition. Washington, USA: IEEE, 2017: 122-126. [本文引用:1]
[18] DOLLAR P, RABAUD V, COTTRELL G, et al. Behavior Recognition via Sparse Spatio-Temporal Features // Proc of the IEEE International Workshop on Visual Surveillance and Performance Eva-luation of Tracking and Surveillance. Washington, USA: IEEE, 2005: 65-72. [本文引用:1]
[19] WANG H, KLĀSER A, SCHMID C, et al. Dense Trajectories and Motion Boundary Descriptors for Action Recognition. International Journal of Computer Vision, 2013, 103(1): 60-79. [本文引用:1]
[20] HALL D L, LLINAS J. An Introduction to Multisensor Data Fusion. Proceedings of the IEEE, 1997, 85(1): 6-23. [本文引用:1]
[21] YANG J, YANG J Y, ZHANG D, et al. Feature Fusion: Parallel Strategy vs. Serial Strategy. Pattern Recognition, 2003, 36(6): 1369-1381. [本文引用:1]
[22] TONG S, KOLLER D. Support Vector Machine Active Learning with Applications to Text Classification. Journal of Machine Lear-ning Research, 2002, 2: 45-66. [本文引用:1]
[23] RODRIGUEZ M D, AHMED J, SHAH M. Action MACH a Spatio-Temporal Maximum Average Correlation Height Filter for Action Recognition // Proc of the IEEE Conference on Computer Vision and Pattern Recognition. Washington, USA: IEEE, 2008. DOI: 10.1109/CVPR.2008.4587727. [本文引用:1]
[24] SCHULDT C, LAPTEV I, CAPUTO B. Recognizing Human Actions: A Local SVM Approach // Proc of the 17th International Conference on Pattern Recognition. Washington, USA: IEEE, 2004, III: 32-36. [本文引用:1]
[25] FEICHTENHOFER C, PINZ A, ZISSERMAN A. Convolutional Two-Stream Network Fusion for Video Action Recognition // Proc of the IEEE Conference on Computer Vision and Pattern Recognition. Washington, USA: IEEE, 2016: 1933-1941. [本文引用:1]
[26] SARGANO A B, WANG X F, ANGELOV P, et al. Human Action Recognition Using Transfer Learning with Deep Representations // Proc of the International Joint Conference on Neural Networks. Washington, USA: IEEE, 2017: 463-469. [本文引用:1]
[27] TU Z G, XIE W, QIN Q Q, et al. Multi-stream CNN: Learning Representations Based on Human-Related Regions for Action Re-cognition. Pattern Recognition, 2018, 79(2): 32-43. [本文引用:1]