结合高斯混合模型与多通道双边滤波的RGBD场景流计算方法
王梓歌1,2, 李盈盈1,2, 葛利跃1,3, 陈震1,2,4, 张聪炫1,2,4
1.南昌航空大学 江西省图像处理与模式识别重点实验室 南昌 330063
2.南昌航空大学 测试与光电工程学院 南昌 330063
3.南昌航空大学 信息工程学院 南昌 330063
4.南昌航空大学 无损检测技术教育部重点实验室 南昌 330063
通讯作者:

张聪炫,博士,教授,主要研究方向为图像处理、计算机视觉.E-mail:zcxdsg@163.com.

作者简介:

王梓歌,硕士研究生,主要研究方向为计算机视觉.E-mail:wangzggg@163.com.

李盈盈,硕士研究生,主要研究方向为计算机视觉.E-mail:1203602578@qq.com.

葛利跃,博士研究生,助理实验师,主要研究方向为机器视觉、智能感知.E-mail:lygeah@163.com.

陈 震,博士,教授,主要研究方向为图像处理、计算机视觉.E-mail:dr_chenzhen@163.com.

摘要

针对现有RGBD场景流计算方法在大位移、运动遮挡等复杂运动场景中存在计算准确性与可靠性较低的问题,文中提出结合高斯混合模型与多通道双边滤波的RGBD场景流计算方法.首先,构造基于高斯混合模型的光流聚类分割模型,从光流中提取目标运动信息,逐层优化深度图分层分割结果,获取高置信度的深度运动分层分割信息.然后,在场景流计算中引入多通道双边滤波优化,建立结合高斯混合模型与多通道双边滤波的RGBD场景流计算模型,克服场景流计算边缘模糊问题.最后,在Middlebury、MPI-Sintel数据集上的实验表明,文中方法在大位移、运动遮挡等复杂运动场景下具有较高的场景流计算准确性和鲁棒性,特别在边缘区域具有较好的保护效果.

关键词: RGBD场景流; 高斯混合模型; 多通道双边滤波; 光流; 边缘模糊
中图分类号:TP391
Calculation Method of RGBD Scene Flow Combining Gaussian Mixture Model and Multi-channel Bilateral Filtering
WANG Zige1,2, LI Yingying1,2, GE Liyue1,3, CHEN Zhen1,2,4, ZHANG Congxuan1,2,4
1. Key Laboratory of Jiangxi Province for Image Processing and Pattern Recognition, Nanchang Hangkong University, Nanchang 330063
2. School of Measuring and Optical Engineering, Nanchang Hangkong University, Nanchang 330063
3. School of Information Engineering, Nanchang Hangkong University, Nanchang 330063
4. Key Laboratory of Non-destructive Testing Technology of Ministry of Education, Nanchang Hangkong University, Nanchang 330063
Corresponding author:
ZHANG Congxuan, Ph.D., professor. His research inte-rests include image processing and computer vision.

About Author:
WANG Zige, master student. Her research interests include computer vision.
LI Yingying, master student. Her research interests include computer vision.
GE Liyue, Ph.D. candidate, assistant experimentalist. His research interests include machine vision and intelligent perception.
CHEN Zhen, Ph.D., professor. His research interests include image processing and computer vision.

Abstract

To improve the computational accuracy and robustness of existing RGBD scene flow calculation methods under complex motion scenarios, such as large displacement and motion occlusion, a calculation method of RGBD scene flow combining Gaussian mixture model and multi-channel bilateral filtering is proposed. Firstly, a Gaussian mixture-based optical flow clustering segmentation model is constructed to extract target motion information from optical flow and optimize the results of depth map segmentation layer by layer. Consequently, high-confidence depth motion hierarchical segmentation information is obtained. Then, the RGBD scene flow estimation model combining the Gaussian mixture model and multi-channel bilateral filtering is established by introducing the multi-channel bilateral filtering optimization to overcome the edge-blurring problem of the scene flow computation. Finally, experiments on Middlebury and MPI-Sintel datasets demonstrate that the proposed method exhits higher accuracy and robustness in complex motion scenarios such as large displacements and motion occlusions, particularly in edge-preserving.

Key words: RGBD Scene Flow; Gaussian Mixture Model; Multi-channel Bilateral Filtering; Optical Flow; Edge Blur

光流虽然可以提供图像中像素点的运动趋势, 但并不能提供运动物体的三维结构信息[1].为此, 学者们提出将光流拓展至三维空间领域的场景流方法, 定义为真实世界中场景表面可见像素点的瞬时三维运动矢量.相比光流, 场景流能够提供更丰富的三维空间信息与结构信息.通过对场景流技术的研究, 既可以从图像序列中恢复物体的三维运动信息, 还可以预测场景中物体的运动模式.因此场景流技术逐渐成为计算机视觉领域的研究热点之一, 研究成果广泛应用于目标检测[2]、三维重建[3]、机器人避障[4]、虚拟现实[5]等领域.

自Vedula等[6]提出场景概念并推导场景流计算基本方法之后, 各种场景流优化方法不断涌现.根据场景流计算手段不同, 可大致分为基于双目图像序列的场景流计算方法和基于RGBD图像序列的场景流计算方法.

基于双目图像序列的场景流计算方法是将从图像序列中计算得到的光流与稠密立体匹配进行耦合, 从而计算出场景流, 但计算量过大[7], 难以广泛使用.为了提高场景流计算效率, Wedel等[8]单独计算视差和光流, 同时对视差和光流分别进行全局优化, 可以有效提高场景计算速度, 但实时性仍然较差.为此, Rabe等[9]先独立计算图像序列视差和帧间光流, 再利用卡尔曼滤波优化各个像素点, 并通过GPU(Graphics Processing Unit)提高计算速度, 从而实现场景流的实时计算.

虽然上述方法可解决场景流计算时效性差的问题, 但是当面对包含大位移、运动遮挡等复杂场景时, 场景流计算效果仍然不够理想.针对大位移运动场景流计算精度较低的问题, Basha等[10]将场景流表示为三维点云, 在计算场景流时引入金字塔分层策略, 提高大位移运动场景流计算精度.进一步, Menze等[11]提出Slanted-Plane Scene Flow Model, 先使用超像素分割方法将场景分割成一组刚性运动平面, 再将超像素离散化标签对应的运动参数分配给场景中的对象, 显著提高大位移运动情况下场景流计算的准确性.针对图像序列中包含运动不连续情况的场景流计算问题, Vogel等[12]提出Piecewise Rigid Scene Flow, 先将场景参数化为一个分段平面区域集合, 并将每个区域视作刚性运动区域, 再对每个刚性区域进行场景流计算.针对场景流计算存在边缘模糊的问题, Schuster等[13]提出SceneFlowFields, 在计算场景流的同时对运动目标边界进行稠密插值, 有效缓解边缘模糊现象.

后来, 随着如Kinect深度相机在消费者层面的普及和深度学习在深度图像计算领域的应用[14], 深度图像的获取变得更加便捷, 因此基于RGBD图像序列计算场景流逐渐成为研究热点.Gottfried等[15]率先将Kinect相机拍摄的RGBD图像数据用于场景流计算.随后, 基于RGBD图像序列的场景流计算方法得到广泛关注.为了充分利用Kinect相机获取的深度信息, Quiroga等[16]同时使用亮度与深度信息, 并结合局部约束与全局约束, 提高变分框架中场景流计算的精度.Herbst等[17]结合稠密深度与颜色信息, 计算RGBD图像序列中每个点的三维运动的场景, 提升弱纹理区域场景流计算的准确性.针对大位移运动RGBD场景流计算精度较低问题, Wang等[18]提出Handling Occlusion and Large Displacement Through Improved RGB-D Scene Flow Estimation, 对每个像素点的状态施加约束, 提高大位移运动场景流计算精度.针对遮挡场景流计算问题, Sun等[19]对RGBD图像序列提供的深度信息进行分层, 并结合光流信息计算各层的刚性运动, 进而求解场景流, 提高遮挡情况场景流计算的可靠性.

近年来, 随着深度学习技术的快速发展, 相关研究成果也被引入场景流计算研究中.Mayer等[20]引入相关层, 模拟传统的立体匹配技术, 结合光流信息与视差信息, 采用卷积神经网络计算场景流.Eigen等[21]从RGB图像预测深度信息时使用两个深度网络, 一个深度网络是对整幅图像进行粗略的全局预测, 另一个深度网络利用局部信息对全局预测进行细化.因为该方法遮挡区域的误差偏大, 对此Yang等[22]将光学膨胀原理应用到场景流计算模型中, 根据光学膨胀获取深度信息, 通过深度信息结合光流重构场景流, 可有效提升遮挡区域下场景流计算性能.

然而, 由于基于深度学习的场景流计算方法通常需要大量标签数据作为训练样本, 而已有图像数据库和真实场景难以满足其需求, 并且网络模型训练时间过长、硬件成本较高, 因此, 基于深度学习的场景流计算方法难以被广泛应用.

现阶段, 虽然场景流计算在精度和速度方面已经取得大幅提升, 但是在大位移、运动遮挡等复杂情况下计算效果仍然较差.针对上述问题, 本文提出结合高斯混合模型与多通道双边滤波的RGBD场景流计算方法.首先, 构造基于高斯混合模型的光流聚类分割模型, 逐层优化深度图分层分割结果, 获取高置信度的深度运动分层分割信息.然后, 在场景流计算中引入多通道双边滤波优化, 构建结合高斯混合模型与多通道双边滤波的RGBD场景流计算模型, 克服场景流计算边缘模糊问题.实验表明, 本文方法能够有效提高在大位移和运动遮挡情况下场景流计算的精度和鲁棒性.

1 基于高斯混合模型的光流聚类分割模型
1.1 基于高斯混合模型的光流聚类分割

深度图中每个像素点值的大小表示该点与相机的距离, 因此, 在深度图中不同运动层对应的深度值存在明显的区别, 可以为场景流计算提供重要的边界轮廓信息和结构信息.在基于RGBD图像序列场景流计算中, 通常利用深度图中的空间信息将图像场景划分至不同的层, 再对应估计每层的运动.但是, 这种场景分层方法仅利用图像中的静态信息条件以确定图像的区域分割, 既不充分也不可靠.

深度图空间信息分层结果如图1所示.由图可以看出, 仅利用深度信息分层虽然在一定程度上可以获得较好的场景分层分割结果, 但是在(c)蓝色方框所示区域, 也存在将应划分为同一层的区域误分配至不同层的误分层问题.究其原因, 主要是受到深度图中噪声等异常值因素的干扰.

图1 深度图空间信息分层结果Fig.1 Spatial information layering result of depth image

由图2可以看出, 深度图由于受噪声的影响, 没有很好地对齐边界与图像平面中的对象边界, 因此造成深度分层结果不够准确.但深度图中包含的空间层次信息仍然可以为场景的分层提供足够的指导, 这也是基于RGBD图像序列场景计算方法的基础.

图2 噪声等异常值在深度图与RGB图像对齐中的影响Fig.2 Effect of noise and other outliers on alignment of depth image and RGB image

为此, 相关研究试图通过寻求其它额外的附加约束以提高深度图深度分层结果的准确性.例如:设计深度加权函数, 避免深度分层的不连续性[23]或引入场景分割约束, 降低深度分层结果的误差[24].本文关注到利用场景中物体的运动信息可以更好地优化深度图深度分层, 因此, 针对深度分层结果准确性与可靠性不足的问题, 本文提出基于高斯混合模型的光流聚类分割模型, 从光流中提取目标运动信息, 增强场景目标之间的运动联系, 并逐层优化深度图分层分割结果, 有效缓解深度空间信息场景分层分割产生的错误划分问题, 进而为后续RGBD场景流计算提供高置信度的深度运动分层分割结果.

光流主要用于捕获场景中运动目标的层次信息, 深度分层是利用静态的空间距离信息实现场景层次分割.虽然二者在分割依据方面存在差异, 但是对场景层次的划分存在一定相似性.不同场景光流估计结果与深度分层结果在主要运动区域的层次相似性如图3所示.

图3 不同场景光流估计结果与深度分层结果在主要运动区域的层次相似性Fig.3 Hierarchy similarity of optical flow estimation results and depth laying results in different scenes in main motion regions

由图3可以看出, 尽管相比光流结果, 深度分层结果呈现出更多的层次, 但是它们在主要运动区域的层次划分是相似的, 如(d)中标签区域.本文模型主要利用捕获的运动信息优化静态的距离分层, 因此, 只需光流估计结果与深度分层结果在主要的运动目标物体上分层相似便可满足要求.同时通过大量实验分析验证, 这种相似性在大多数场景均可以得到满足.

基于深度分层与光流结果间具有的相似性, 本文首先假设图像场景的运动是呈现局部刚性的.一方面, 因为具有一致局部刚性运动的区域通常在运动过程中不易发生形变, 另一方面, 局部刚性运动区域的运动形式一般趋于一致.然后, 以深度图的空间信息聚类分层结果为基准, 提出基于高斯混合模型的光流聚类分割模型.

由于光流是运动物体表面像素点的瞬时速度, 因此, 在同一层局部刚性运动区域物体的光流信息可视作均匀的, 通过从光流中提取运动信息, 可以为同一运动层分割提供可靠的运动信息.此外, 为了降低噪声等因素对光流估计结果的影响, 本文选用Classic+NL[25]计算RGB图像序列帧间的初始光流.这是因为该方法建立局部加权中值滤波优化方案, 显著提升算法的抗噪性, 并且也是后续很多高精度光流计算模型的基线方法[26, 27], 甚至还被引入半监督学习光流计算模型[28].因此基于Classic+NL优越的光流估计鲁棒性能, 可以为本文方法提供稳定的初始光流.

本文引入高斯混合模型, 构建基于高斯混合模型的光流聚类分割模型:

p(w|α, μ, c)= k=1KαkN(U|μk, ck).

其中:

k=1Kαk=1, αk≥ 0,

表示属于第k个高斯的概率; p(· )表示学习到的概率密度; k表示类别; U表示初始光流, U=(u, v)T, u表示光流水平方向分量, v表示光流垂直方向分量; μk表示第k个类别的期望; ck表示第k个类别的高斯函数协方差矩阵; N(U|μk, ck)表示混合模型中的一个类别.由于高斯混合模型可以看作是由K个单高斯模型组合而成的模型, 因此, 通过习得的概率密度函数, 可以在实现高精度聚类的同时简化信息量.

为了优化基于高斯混合模型的光流聚类分割模型, 本文使用K均值算法为模型提供初始化参数, 则基于高斯混合模型的光流聚类分割模型初始化参数可设置为:

αk= NskN, μk= i=1NskUiNsk, ck=c(sk)+βE, (1)

其中, sk表示第k个聚类, Nsk表示第sk个聚类中像素点总个数, N表示整幅图像中像素点的总个数, Ui表示第k个聚类中第i个像素点对应的光流值, β表示协方差矩阵的正则化系数, E表示单位矩阵.

在模型初始化后, 通过式(1)可得到模型的后验概率γ(hik), 即第k个聚类对图像中第i像素点处光流值Ui的响应度:

γ(hik)= αkN(Ui|μk, ck)k=1KαkN(Ui|μk, ck), (2)

其中, hik为隐变量, 表示第i个光流值属于第k个类别.

利用式(2)得到的响应度不断迭代更新:

$\begin{aligned}& \boldsymbol{\mu}_k^{t+1}=\frac{1}{N_k} \sum_{i=1}^N \gamma\left(h_{i k}\right) \boldsymbol{U}_i, \\ & \boldsymbol{c}_k^{t+1}=\frac{1}{N_k} \sum_{i=1}^N \gamma\left(h_{i k}\right)\left(\boldsymbol{U}_i-\boldsymbol{\mu}_k^{t+1}\right)\left(\boldsymbol{U}_i-\boldsymbol{\mu}_k^{t+1}\right)^{\mathrm{T}}, \\ & \alpha_k^{t+1}=\frac{N_k}{N}, \end{aligned}$

直到达到迭代停止条件

| (lnL(Ui, hik|α, μ, c))t+1- (lnL(Ui, hik|α, μ, c))t≤ ε

时停止, 其中, L(· )表示对数似然值, ε=e-6表示迭代停止阈值, t表示迭代次数.

本文通过对比光流样本点对各个分模型的响应度大小, 判断样本所属的类别, 确定最终光流聚类分割结果.

在实际计算中, 本文将包含运动物体的部分划分为前景, 将所有未分配给前景的像素部分归为背景.随着场景运动的变化, 前景与背景的划分并不能始终保持不变.为了在图像序列场景运动过程中动态识别前景区域和背景区域, 避免背景误分为前景的情况, 本文引入层支撑函数g.假设场景包含K个独立运动的运动层, 为了建模不同的前景分割层, 本文使用K-1个连续的层支撑函数g编码不同层像素属于对应前景层的可能性.由于第K层为背景层, 因此不使用层支撑函数.例如, 第t帧第k层(1≤ kK-1)的支撑函数可以表示为gtk, 编码像素在第t帧属于第k层的可能性.

层支撑函数g的结构如图4所示, 图中gt表示第t帧前景支撑函数结构, gt+1表示t+1帧的前景层支撑函数, 圆圈表示像素点, gt中红色像素点表示中心像素点, 在空间上与当前层所有像素关联, 在时间上与2个时间相邻像素关联(图中的灰色像素点), 并且这2个灰色像素点可由光流确定.

图4 前景层支撑函数的二进制掩码时空结构Fig.4 Space-time structure of binary mask of foreground layer support function

随着时间的变化和运动的变化, 本文通过支撑函数捕获前景层的变化, 并对前景层像素点的可见性进行判断, 即像素点在gtgt+1中均可见时, 属于前景层, 如果不可见, 属于背景层.通过该方法可以在图像序列运动过程中动态区分背景与前景, 从而在一定程度上避免背景被误分为前景的现象.

层支撑函数捕获前景变化的过程可公式化.首先, 利用高斯条件随机场(Markov Random Field, MRF)捕获层支撑函数在空间的一致性:

$\begin{aligned} & E_g\left(g_{t k}\right)=\sum_{\boldsymbol{x}} \sum_{x^{\prime} \in N_{\boldsymbol{x}}}\left(g_{t k}(\boldsymbol{x})-g_{t k}\left(\boldsymbol{x}^{\prime}\right)\right) \omega_{\boldsymbol{x}^{\prime}}^{\boldsymbol{x}}, \end{aligned}$

其中, x=(x, y)T表示像素点坐标, Nxx的最近四邻域像素集合, x'为四邻域像素.此外, 在边缘区域使用颜色矢量差异作为权重 ωxx', 保护边缘.权重 ωxx'定义为

$\begin{aligned} & \omega_{\boldsymbol{x}^{\prime}}^x=\max \left\{\exp \left\{-\frac{I_t(\boldsymbol{x})-\left.I_t\left(\boldsymbol{x}^{\prime}\right)\right|^2}{\sigma_I^2}\right\}, \omega_0\right\}, \end{aligned}$

其中, σ I表示高斯核的标准差, ω0表示常量颜色空间平衡系数, 作用是避免图像中局部区域出现颜色矢量变化过大的情况.

最后, 使用高斯MRF保持层支撑函数在时间上的一致性:

$\begin{aligned} & E_t\left(g_{t k}, g_{t+1, k}, \boldsymbol{u}_{t k}, \boldsymbol{v}_{t k}\right)=\sum_x\left(g_{t k}(\boldsymbol{x})-g_{t+1, k}(\tilde{\boldsymbol{x}})\right)^2, \end{aligned}$

其中,

x~= (x+utk(x), y+vtk(x))T

表示当前第t帧第k层像素点根据光流运动信息获得的在下一帧对应位置的像素点坐标.

1.2 基于光流聚类分割的深度分层优化

为了降低噪声等异常值因素对深度分层结果的影响, 本文采用文献[15]提出的深度图预处理方法, 掩盖无效的深度测量, 降低噪声影响.然后, 在获取高斯聚类光流分割结果后, 将其与深度分层结果进行对比, 并利用光流信息判定深度分割图中相邻层是否可以合并优化.

深度分层结果中的相邻层判定方法为:令dkdk+1分别表示深度分层结果中的两个层, k表示dk层中的标记, k+1表示dk+1层中的标记.首先, 将第dk层上下左右移动一个像素点, 再分别和dk+1层相加.最后, 检测相加后的结果中最大值是否包含2k+1.如果包含, 判定为相邻区域, 进一步利用光流信息判定这两层是否可以合并.如果不包含, 保持原始深度分层结果.该过程如图5所示.

图5 相邻层判定Fig.5 Adjacent layer judgment

由于在小的局部范围内物体的运动是刚性的, 因此, 可以获取dk层和dk+1层的像素点坐标, 然后通过像素点坐标信息映射至对应的光流分层结果中, 从而找到该区域对应的光流分层区域.假设局部范围Ω内的深度分层结果中的相邻层dkdk+1映射到对应光流分割层的区域为fkfk+1, 此时计算光流分割区域fkfk+1所有像素点光流的平均角误差avg_AE和点误差avg_EE:

$\begin{aligned} & a v g \_A E=\arccos \left(\frac{\overline{\boldsymbol{u}}_{f_k} \overline{\boldsymbol{u}}_{f_{k+1}}+\overline{\boldsymbol{v}}_{f_k} \overline{\boldsymbol{v}}_{f_{k+1}}}{\sqrt{\overline{\boldsymbol{u}}_{f_k}^2+\overline{\boldsymbol{v}}_{f_k}^2} \sqrt{\overline{\boldsymbol{u}}_{f_{k+1}}^2+\overline{\boldsymbol{v}}_{f_{k+1}}^2}}\right), \\ & a v g_{-} E E=\sqrt{\left(\overline{\boldsymbol{u}}_{f_k}-\overline{\boldsymbol{u}}_{f_{k+1}}\right)^2+\left(\overline{\boldsymbol{v}}_{f_k}-\overline{\boldsymbol{v}}_{f_{k+1}}\right)^2}, \\ & \text { s. t. }\left\{f_k, f_{k+1}\right\} \in \Omega, 1 \leqslant k \leqslant K-1 \text {, } \end{aligned}$

其中, u-fku-fk+1表示fkfk+1光流分割区域的水平方向光流平均值, v-fkv-fk+1表示垂直方向光流平均值.

判定深度分层结果中相邻层是否可以合并的条件为:当avg_AE< TH_aeavg_EE< TH_ee时, 合并深度分割层dkdk+1, 否则不合并, 其中, TH_aeTH_ee为预设置阈值.通过实验分析, 本文设置

TH_ae=0.01, TH_ee=0.004.

值得注意的是, 当包含深度层次不同、但在二维图像投影中连通的两个静止物体时, 因为这两个区域没有发生运动, 光流信息为0, 所以后置光流优化操作并不会优化该区域的层次划分, 深度分层保持不变.这也说明, 本文方法仅适用于运动物体的深度分层优化, 因为运动是光流产生的必要条件.另外, 针对被深度聚类分配至不相邻层的情况, 是否可以合并需要依据物体的运动状态决定.当物体处于静止状态时, 由于没有产生光流优化所需的运动信息, 因此不会被合并.如果物体发生能够被捕捉到的光流运动信息, 可根据光流优化判定方法决定其是否可以合并:1)如果该运动信息满足优化合并判别条件, 合并; 2)如果该运动使物体的状态发生较大变化, 如中断、严重不连续, 导致运动信息差异太大, 则划分至不同层的部分难以被合并.

此外, 为了保证深度分层与光流分层在层次结构的相似性, 在实际计算过程中, 本文遵循文献[29]中的深度聚类合并策略, 对深度聚类分割后的区域先执行一次合并操作, 减少由于距离信息产生的过度分层, 使深度分层结果与光流估计结果更加接近.同时在光流分层时, 为了尽可能实现同层光流的聚类分割, 避免因相同区域光流之间的差异而导致的误分层问题, 本文基于局部刚性假设, 使用局部区域的平均光流代替该区域的全部光流以减缓该问题, 从而保证二者分层结果的相似性.

最后, 本文还采用迭代交替优化方案, 进一步减小噪声等异常值对模型的影响, 即先用Classic+NL计算的光流辅助优化深度分层, 获取初始优化结果, 然后, 利用该深度分层结果进行后续的场景流计算.由于光流本质上是场景流在二维空间的投影, 所以本文利用计算的场景流反作用于优化光流, 并对深度分层结果进行再一次优化.通过多次迭代, 提高深度分层分割精度.

深度运动分层优化前后的结果对比如图6所示.由图可以看出, 初始深度分层结果存在较明显的错误, 如人物身体部分错误地与背景分割为一类, 而优化后的深度分层结果较好地避免该问题.

图6 深度运动分层优化结果对比Fig.6 Comparison of depth motion layering optimization results

2 结合高斯混合模型与多通道双边滤波的场景流计算模型
2.1 基于深度分层分割的场景流运动参数模型

对于给定的连续两帧RGB图像I1I2和对应深度图像D1D2, 本文首先将输入的图像序列依据深度分层分割结果划分为相互独立的运动层, 然后, 将全局运动计算分解成每个独立分割层运动的集合, 进而计算对应的每层运动.

依据运动方向的不同, 将全局运动分解为水平、垂直和深度方向的独立运动, 相应的半参数模型可表示为Eu(utk, φ tk)、Ev(vtk, φ tk)、Ew(wtk, φ tk), 则

Eu(utk, φ tk)= xγ b(utk(x)- utkR(x))·

x'Nxγ u((utk(x)- utkR(x))-(utk(x')- utkR(x'))),

Ev(vtk, φ tk)= xγ b(vtk(x)- vtkR(x))·

x'Nxγ u((vtk(x)- vtkR(x))-(vtk(x')- vtkR(x'))),

Ew(wtk, φ tk)= xγ b(wtk(x)- wtkR(x))·

x'Nxγ u((wtk(x)- wtkR(x))-(wtk(x')- wtkR(x'))),

其中, utk表示场景流水平分量, vtk表示场景流垂直分量, wtk表示场景流深度分量, γ bγ u表示鲁棒惩罚函数, x'=(x', y')T表示像素点x的局部邻域Nx内的任意像素, φ tk= (Rtk, Ttk)T表示第t帧中第k层分割层的变换矩阵, Rtk为旋转矩阵, Ttk为平移矩阵.

假设位于相同分割层的对应像素点坐标集合为mini, 通过Horn四元数法可以计算每层对应的旋转矩阵R和平移矩阵T, 该过程可公式化为

E(R, T)=min Ω(Rmi+T-ni)2, (3)

其中, i表示像素点索引, Ω表示图像区域.

2.2 基于多通道双边滤波优化的高斯混合模型场景流计算

由于本文将图像场景分割为相互独立的运动层, 因此, 假设每个分割层中所有像素点均具有相同的运动参数矩阵, 则基于高斯混合模型的RGBD场景流计算模型可表示为

$\begin{aligned} & E(\boldsymbol{u}, \boldsymbol{v}, \boldsymbol{w}, g, \boldsymbol{\varphi})= \\ & \sum_{t=1}^{T-1}\left\{\sum_{k=1}^K\left\{E_{\mathrm{data}}\left(\boldsymbol{u}_{t k}, \boldsymbol{v}_{t k}, g_t\right)+\lambda_d E_{\mathrm{depth}}\left(\boldsymbol{u}_{t k}, \boldsymbol{v}_{t k}, \boldsymbol{w}_{t k}\right)+\right.\right. \\ & \left.\lambda_m\left\{E_u\left(\boldsymbol{u}_{t k}, \boldsymbol{\varphi}_{t k}\right)+E_v\left(\boldsymbol{v}_{t k}, \boldsymbol{\varphi}_{t k}\right)+E_w\left(\boldsymbol{w}_{t k}, \boldsymbol{\varphi}_{t k}\right)\right\}\right\}+ \\ & \left.\sum_{k=1}^{K-1} \lambda_t E_t\left(g_t, g_{t+1}, \boldsymbol{u}_{t k}, \boldsymbol{v}_{t k}\right)\right\}+\sum_{t=1}^T \sum_{k=1}^{K-1} \lambda_g E_g\left(g_{t k}\right), \end{aligned}$

其中, λ d表示深度图约束项权重, λ m表示全局运动分解约束项权重, λ t表示时间约束项权重, λ g表示空间约束项权重, Edata(utk, vtk, gt)表示基于高斯混合模型的光流聚类RGBD数据约束项, Edepth(utk, vtk, wtk)表示基于高斯混合模型的深度图约束项,

$\begin{aligned} & E_{\text {data }}\left(\boldsymbol{u}_{t k}, \boldsymbol{v}_{t k}, g_t\right)=\sum_x s_{t k}(\boldsymbol{x}) \rho_c\left(\tilde{I}_t(\boldsymbol{x})-\tilde{I}_{t+1}(\tilde{\boldsymbol{x}})\right) \text {, } \\ & E_{\mathrm{depth}}\left(\boldsymbol{u}_{t k}, \boldsymbol{v}_{t k}, \boldsymbol{w}_{t k}\right)=\sum_x s_{t k}(\boldsymbol{x}) \rho_d\left(z_{t+1}(\tilde{\boldsymbol{x}})-z_t(\boldsymbol{x})-\boldsymbol{w}_{t k}(\boldsymbol{x})\right), \\ & \end{aligned}$

I~(x)表示像素点x的灰度特征, z(x)表示像素点x的深度值, ρ cρ d表示鲁棒参数, stk(x)表示根据高斯混合模型光流聚类分割结果和深度运动分层优化结果定义的图像分层函数,

stk(x)= gtk(x)k'=1k-1(1-gtk'(x)), 1k< Kk'=1k-1(1-gtk'(x)), k=K

gtk(· )表示第t时刻第k层支撑函数, 是光流聚类结果得到的二进制掩码, gtk(· )≥ 0表示像素点属于该层, 否则说明像素点属于其它分割层, 即当stk(x)=1时, 该像素点是属于第k层的点.当在计算第k层的场景运动时, 通过图像分层函数将属于该分割层的数据项置为1, 而不属于该分割层的数据项置为0, 从而避免非本层像素点对本文方法计算的影响.

针对场景流计算在图像边缘存在模糊的问题, 本文在RGB数据约束项和深度图约束项中引入双边滤波约束, 在场景流优化计算过程中使用双边滤波优化, 进而达到保护图像边缘目的.加入双边滤波约束后的RGB数据约束项和深度图约束项可写为

$\begin{aligned} & E_{\mathrm{data}}\left(\boldsymbol{u}_{t k}, \boldsymbol{v}_{t k}, g_t\right)=\sum_x b f\left(s_{t k}(\boldsymbol{x}) \rho_c\left(\tilde{I}_t(\boldsymbol{x})-\tilde{I}_{t+1}(\tilde{\boldsymbol{x}})\right)\right), \\ & E_{\mathrm{depth}}\left(\boldsymbol{u}_{t k}, \boldsymbol{v}_{t k}, \boldsymbol{w}_{t k}\right)=\sum_x b f\left(s_{t k}(\boldsymbol{x}) \rho_d\left(z_{t+1}(\tilde{\boldsymbol{x}})-z_t(\boldsymbol{x})-w_{t k}(\boldsymbol{x})\right)\right). \end{aligned}$

其中bf(· )表示双边滤波约束.

2.3 场景流计算方法

为了求解分层场景流中第k层的场景流, 本文首先将t时刻参考第1帧图像中第k层的目标像素点记为p=(x, y)T, 对应深度值记为z.然后, 计算t时刻到t+1时刻连续图像序列间的帧间光流(u, v)T, 并由该光流信息计算t+1时刻p点在第2帧图像中对应的位置p'=(x', y')T, 而

x'=x+u, y'=y+v.

同时, 采用双线性插值算法, 可求得p'点对应深度值为zw.根据相机映射关系, 将像素点pp'的坐标映射到相机坐标系, 则两点的坐标可表示为

P=(X, Y, z)T, P'= (X', Y', zw)T,

X= z(x-cx)fx, Y= z(y-cy)fy,

X'= zw(x'-cx)fxY'= zw(y'-cy)fy

其中, cxcy表示相机的中心, fx表示相机水平方向的焦距, fy表示相机垂直方向的焦距.

假设在前后两帧图像序列中属于第k层的所有像素点的坐标集合记为AiBi, i=1, 2, …, k, 利用式(3)计算每层的旋转矩阵Rtk和平移矩阵Ttk , 则点p对应的新的三维空间位置可表示为

(X', Y', z')=Rtk· X+Ttk.

依据上式, 其对应的2D位置为

$\begin{aligned} & \left\lgroup f_x \frac{X^{\prime}}{z^{\prime}}+c_x, f_y \frac{Y^{\prime}}{z^{\prime}}+c_y\right\rgroup \end{aligned}$,

则像素平面上的场景流为

u(p)=fxX'z'+cx-x, v(p)=fxY'z'+cy-y, w(p)=zw-z.

最后, 为了保护图像边缘结构, 使用双边滤波约束分别对场景流水平方向分量u, 垂直分量v和深度分量w进行优化, 优化方法如下:

$\begin{aligned} & \boldsymbol{u}^{\prime}\left(p_c\right)= \frac{1}{W} \sum_{p \in N_p} G_{\sigma_s}\left(\left\|p-p_c\right\|\right) G_{\sigma_r}\left(\left|\boldsymbol{u}(p)-\boldsymbol{u}\left(p_c\right)\right|\right) \boldsymbol{u}\left(p_c\right), \\ & \boldsymbol{v}^{\prime}\left(p_c\right)= \frac{1}{W} \sum_{p \in N_p} G_{\sigma_s}\left(\left\|p-p_c\right\|\right) G_{\sigma_r}\left(\left|\boldsymbol{v}(p)-\boldsymbol{v}\left(p_c\right)\right|\right) \boldsymbol{v}\left(p_c\right), \\ & \boldsymbol{w}^{\prime}\left(p_c\right)= \frac{1}{W} \sum_{p \in N_p} G_{\sigma_s}\left(\left\|p-p_c\right\|\right) G_{\sigma_r}\left(\left|\boldsymbol{w}(p)-\boldsymbol{w}\left(p_c\right)\right|\right) \boldsymbol{w}\left(p_c\right), \end{aligned}$

其中, pc表示中心像素点, Np表示中心像素点的空间邻域, p表示该空间内像素点, u(pc)、v(pc)、w(pc)表示场景流在像素点pc处水平、垂直和深度方向的值, W表示归一化常数

W= pNpGσs(‖ p-pc‖ ) Gσr(|I(p)-I(pc)|),

Gσ (· )表示高斯函数, σ表示标准差, Gσs(· )表示空域核, Gσr(· )表示值域核,

$\begin{aligned} & G_{\sigma_s}=\exp \left(\frac{-\left(p-p_c\right)^2}{2 \sigma_s^2}\right), \\ & G_{\sigma_r}=\exp \left(\frac{-\left|\boldsymbol{u}(p)-\boldsymbol{u}\left(p_c\right)\right|^2}{2 \sigma_s^2}\right) . \end{aligned}$

当优化区域在图像平坦区域时, 该区域像素值变化很小, 像素差值接近于0, 此时空间域权重起主要作用, 对图像进行去噪.当优化区域在图像边缘区域时, 该区域像素值变化较大, 像素值差值较大, 此时值域权重起主要作用, 保护图像边缘信息.

以连续多帧图像序列场景流计算效果对比为例, 在引入多通道双边滤波约束前后, 场景流计算效果的差异如图7所示.

图7 引入多通道双边滤波约束前后场景流计算效果对比Fig.7 Comparison of scene flow calculation effects before and after introducing multi-channel bilateral filtering constraints

由图7可以看出, 未引入多通道双边滤波约束时, 场景计算结果在边缘区域包含较明显的模糊与异常值.加入多通道双边滤波约束后, 场景流计算结果在边缘区域更加清晰, 异常值大幅减少.上述情况说明本文引入多通道双边滤波约束, 可以有效抑制图像边缘的模糊与异常值现象, 对提高场景流计算效果具有显著作用.

3 实验及结果分析
3.1 评估指标

本文采用场景流计算研究中普遍采用的光流异常值百分比(Fl-all)[24]、平均角误差(Average Angu-lar Error, AAE)和均方根误差(Root Mean Squared Error, RMSE)[23]指标, 从异常值、角度与幅度三方面对场景流计算结果进行量化评价:

$\begin{aligned} & F l \text {-all }=\frac{P}{A L L} \times 100 \%, \\ & A A E=\frac{1}{N} \arccos \left(\frac{1+\boldsymbol{u}_{\mathrm{GT}} \boldsymbol{u}+\boldsymbol{v}_{\mathrm{GT}} \boldsymbol{v}}{\sqrt{\boldsymbol{u}_{\mathrm{GT}}^2+\boldsymbol{v}_{\mathrm{GT}}^2+1} \sqrt{\boldsymbol{u}^2+\boldsymbol{v}^2+1}}\right), \\ & R M S E= \\ & \sqrt{\frac{1}{N} \sum_{(x, y)}\left(\left(\boldsymbol{u}_{\mathrm{GT}}(x, y)-\boldsymbol{u}(x, y)\right)^2+\left(\boldsymbol{v}_{\mathrm{GT}}(x, y)-\boldsymbol{v}(x, y)\right)^2\right)}, \end{aligned}$

其中, P表示光流端点误差大于3个像素的像素点个数, ALL表示整幅图像所有的像素个数, (u, v)T表示光流计算值, (uGT, vGT)T表示真实光流值.

Fl-all表示光流异常值百分比, 反映计算值偏离真实值超过一定阈值时离群像素点占整幅图像总像素点个数的百分比.AAE为平均角误差, 反映光流计算值与光流真实值之间的角度误差.RMSE为均方根误差, 遍历图像中的所有像素, 将算法获取的三维场景流映射为二维光流, 并与真实光流值进行对比, 反映误差分布和整体准确度水平.

3.2 参数设置

由于本文方法使用K均值进行参数初始化, 因此, K均值中K的设置对本文方法计算效果存在一定影响.本文使用MPI-Sintel数据集的测试图像集上alley1、bandage1图像序列进行参数设置实验, 分析不同K值对本文方法场景流计算的影响, 实验设置K=3, 5, 7, 9, 11.

不同K值对本文方法场景流计算精度的影响如图8所示.由图可以看出, 随着K值的增加, 场景流计算的Fl-all值呈现先降低后增大的趋势, 当K=9时, Fl-all值达到最高.因此, 本文方法设置初始分层数K=9.

图8 不同K值对Fl-all的影响Fig.8 Effect of different K on Fl-all

3.3 Middlebury测试集上实验结果

首先采用Middlebury数据集上提供的标准测试图像序列验证本文方法场景流计算的准确性与边缘保护效果.选取S-RGBD[19]、Classic++[25]、LDOF(Large Displacement Optical Flow)[30]、FRFCM(Fast and Robust Fuzzy C-means)[31]作为对比方法.Classic++采用经典鲁棒参数变分模型, 在优化过程中采用中值滤波去除光流结果中的异常值.LDOF是基于特征匹配与金字塔变形策略结合的计算方法.S-RGBD利用深度图进行深度分割排序, 并结合光流计算每层的运动, 最后使用金字塔分层变形技术优化各层场景流.FRFCM对光流彩色编码结果进行聚类, 并利用深度信息优化聚类结果, 计算场景流.

各方法在Middlebury数据集测试图像序列上的RMSE和AAE统计结果如表1所示.从表中可以看出, 本文方法仅在Laundry、Moebius、Books图像序列上的RMSE和AAE值略低于FRFCM, 而在Art、Reindeer、Dolls图像序列上, 本文方法的RMSE和AAE值最低.相比FRFCM, 本文方法的RMSE值降低74.69%, AAE值降低36.36%.以上说明本文方法针对具有大位移运动、运动遮挡等复杂场景的图像序列场景流计算具有较高的准确性与鲁棒性.

表1 各方法在Middlebury数据集图像序列上的场景流计算误差统计 Table 1 Calculation error statistics of scene flow of different methods on images sequence of Middlebury dataset

各对比方法在Middlebury数据集图像序列上的可视化结果如图9所示, 相应标签局部放大图如图10所示.由图9可见, 在场景流整体计算效果方面, Classic++由于使用基于加权中值滤波的计算策略, 产生过度平滑的现象, 尤其是在Moebius、Books、Dolls等具有大位移运动和遮挡场景图像序列上存在明显错误计算.由于Middlebury图像序列上包含大位移运动产生的遮挡区域, LDOF的局部区域匹配策略无法获得正确的匹配结果, 导致算法计算效果较差.S-RGBD由于使用基于深度图像的分层计算策略, 场景流计算结果产生边缘模糊现象, 尤其在Art、Laundry图像序列上产生强遮挡区域.

图9 各方法在Middlebury数据集测试图像上的可视化结果Fig.9 Visualization results of different methods on test images of Middlebury dataset

图10 图9中标签区域的局部放大图Fig.10 Partial enlargement of labeled area in Fig.9

由图10可以看出, 在Laundry图像序列上, LDOF和Classic++存在明显的计算错误, 整个区域的场景流信息丢失严重.S-RGBD和FRFCM较准确地计算出标签区域场景流信息, 但是在边缘区域存在较多的异常值.本文方法不仅完整地计算出标签区域的场景流, 而且在边缘区域消除异常值.在Art图像序列上, 本文方法效果优于LDOF、Classic++和S-RGBD.相比FRFCM, 本文方法效果与其相似, 但是在数值精度方面, 本文方法获取更高的计算精度.在Reindeer序列上, 本文方法在边缘区域取得最佳的计算效果, LDOF和Classic++并未计算出边缘信息, S-RGBD和FRFCM在边缘区域存在较严重的扩张错误.实验结果说明本文方法在Middlebury测试集图像序列上的场景流计算效果更接近于真实值, 准确性更高.

3.4 MPI-Sintel数据集上实验结果

为了验证本文方法针对大位移、遮挡等复杂场景的场景流计算效果, 采用MPI-Sintel数据集, 选取Object Scene Flow(本文简记为OSF)[11]、SceneFlowFields[13]、S-RGBD[19]、Flow-ex[22]、Classic++[25]、LDOF[30]、FRFCM[31]作为对比方法.OSF通过离散标签将超像素平面与对象进行分配, 建立基于MRF的吉布斯能量函数, 有效改善在大位移运动下场景流计算的准确性.SceneFlowFields采用Lucas & Kanade模型计算光流, 通过稀疏匹配的密集插值结合立体图像视差, 得到密集的场景流.Flow-ex为基于光学膨胀的场景流计算模型, 根据光学膨胀获取深度信息, 通过深度信息结合光流重构场景流.

本文先将MPI-Sintel数据集按照运动场景的不同划分为大位移场景和运动遮挡场景两类, 并针对这两类场景图像序列进行测试.各方法针对大位移场景和运动遮挡场景的Fl-all值如表2所示, 表中黑体数字表示最优值.由于文献[22]中并未提供完整的测试结果数据, 因此本文仅列出已有数据进行对比分析.由表可以看出, 在针对大位移情况场景流计算时, 本文方法Fl-all值整体最优, 相比FRFCM, 在数值精度方面具有明显提升.在针对运动遮挡场景光流计算时, 本文方法在平均值上整体最优.在cave_4、ambush_2、market_2场景上, 相比FRFCM, 本文方法精度具有明显提升.虽然在bandage_2、bamboo_2图像序列上精度略低于FRFCM, 但差距很小.实验结果说明本文方法在针对大位移和运动遮挡情况下的场景流计算时, 具有较高的计算精度与鲁棒性.

表2 各方法在MPI-Sintel数据集上Fl-all值统计 Table 2 Fl-all value statistics of different methods on MPI-Sentel dataset

各方法针对大位移与运动遮挡场景流计算的可视化结果如图11所示.由图可以看出, 在大位移场景中, 本文方法在market_5、temple_3图像序列的人物脚部、手部区域明显优于对比方法, 相比FRFCM, 本文方法场景流计算更准确, 较准确地计算出market_5图像序列标签脚部区域场景流, 同时, 大幅消除temple_3图像序列标签手部周围区域的异常值.在bamboo_1图像序列上, 本文方法是唯一计算出木棒区域场景流信息的方法.针对运动遮挡场景, 本文方法场景流计算效果仍然优于对比方法, 且与FRFCM差异明显.在bamboo_2、market_2标签区域, 本文方法均较完整地计算出该区域的场景流, 而FRFCM在bamboo_2标签区域丢失大量运动信息, 在market_2标签区域的边缘处存在明显的异常值与粘连, 并未完全分离出相邻的两个运动物体.实验结果进一步说明, 本文方法在针对大位移和运动遮挡场景流计算时具有较好的计算效果.

图11 各方法在MPI-Sintel数据集测试图像上的可视化结果Fig.11 Visualization results of different methods on test images of MPI-Sentel dataset

3.5 SRSF数据集上实验结果

最后, 为了验证本文方法的鲁棒性, 选用SRSF数据集[23]进行测试. SRSF数据集主要由真实场景组成, 包含非刚性形变、遮挡、大位移等运动场景.由于该数据集并未提供场景流真实值, 因此, 本文采用场景流计算可视化结果进行定性对比分析.各方法在SRSF数据集上的可视化结果如图12所示, 其中, 第1列场景为手部旋转运动, 第2列为非刚性形变运动, 第3列为既包含大位移又包含运动遮挡的复杂场景.由图可以看出, 在第1幅图像上本文方法效果明显优于对比方法, 更加精确地捕捉到手部运动信息.在包含非刚性形变运动的第2列图像序列, 本文方法效果仅低于S-RGBD, 这说明本文方法在针对非刚性形变运动场景流计算时存在一定限制, 但是在边缘处, 本文方法保持较高精度的计算效果.在第3幅图像上, 本文方法效果相对优于Classic++、LDOF和DSRSF, 相比S-RGBD, 尽管在背景区域效果欠佳, 但获得更准确的人物头部运动信息.这说明本文方法在应对包含真实复杂运动情况下的场景流计算仍然具有较高的计算精度与鲁棒性.

图12 各方法在SRSF数据集测试图像上的可视化结果Fig.12 Visualization results of different methods on test images of SRSF dataset

4 结束语

本文提出结合高斯混合模型与多通道双边滤波的RGBD场景流计算方法.首先, 输入前后两帧RGB图像和对应深度图, 计算前后两帧RGB图像序列光流, 并提出基于高斯混合模型的光流聚类分割模型, 从光流中提取目标运动信息, 并根据光流信息逐层优化深度分层, 获得更准确的深度分层信息.然后, 针对场景流计算存在的边缘模糊问题, 将双边滤波引入场景流计算模型, 构建结合高斯混合模型与多通道双边滤波的RGBD场景流计算方法.分别采用Middlebury、MPI-Sintel、SRSF数据集提供的测试图像序列, 对本文方法及LDOF、Classic++、S-RGBD、OSF、SceneFlowFields等代表性方法进行综合实验对比, 结果显示本文方法场景流计算结果的AAE、RMSE、Fl-all值都有大幅降低, 表明本文方法的准确性和鲁棒性较高, 尤其在针对具有大位移运动和遮挡场景的场景流计算时效果较优, 有效避免边缘模糊问题.同时, 本文方法也存在一定限制, 即本文方法主要利用光流中的运动信息辅助优化深度分层, 当物体处于静止状态时, 由于未产生所需的光流运动信息, 难以进一步优化深度分层, 因此本文方法仅适用于运动物体的深度分层.今后将着重针对静态场景的深度分层优化展开深入研究.

本文责任编委 桑农

Recommended by Associate Editor SANG Nong

参考文献
[1] 葛利跃, 邓士心, 龚洁, . 基于运动优化语义分割的变分光流计算方法. 模式识别与人工智能, 2021, 34(7): 631-645.
(GE L Y, DENG S X, GONG J, et al. Variational Optical Flow Computation Method Based on Motion Optimization Semantic Segmentation. Pattern Recognition and Artificial Intelligence, 2021, 34(7): 631-645. ) [本文引用:1]
[2] SCHUSTER R, WASENMÜLLER O, UNGER C, et al. SceneFlowFields++: Multi-frame Matching, Visibility Prediction, and Robust Interpolation for Scene Flow Estimation. International Journal of Computer Vision, 2020, 128(2): 527-546. [本文引用:1]
[3] PONTES J K, HAYS J, LUCEY S. Scene Flow from Point Clouds with or Without Learning // Proc of the International Conference on 3D Vision. Washington, USA: IEEE, 2020: 261-270. [本文引用:1]
[4] SAXENA R, SCHUSTER R, WASENMULLER O, et al. PWOC-3D: Deep Occlusion-Aware End-to-End Scene Flow Estimation // Proc of the IEEE Intelligent Vehicles Symposium. Washington, USA: IEEE, 2019: 324-331. [本文引用:1]
[5] OUYANG B J, RAVIV D. Occlusion Guided Self-Supervised Scene Flow Estimation on 3D Point Clouds // Proc of the International Conference on 3D Vision. Washington, USA: IEEE, 2021: 782-791. [本文引用:1]
[6] VEDULA S, RANDER P, COLLINS R, et al. Three-Dimensional Scene Flow. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2005, 27(3): 475-480. [本文引用:1]
[7] 陈震, 马龙, 张聪炫, . 基于语义分割的双目场景流估计. 电子学报, 2020, 48(4): 631-636.
(CHEN Z, MA L, ZHANG C X, et al. Binocular Scene Flow Estimation Based on Semantic Segmentation. Acta Electronica Sinica, 2020, 48(4): 631-636. ) [本文引用:1]
[8] WEDEL A, RABE C, VAUDREY T, et al. Efficient Dense Scene Flow from Sparse or Dense Stereo Data // Proc of the European Conference on Computer Vision. Berlin, Germany: Springer, 2008: 739-751. [本文引用:1]
[9] RABE C, MÜLLER T, WEDEL A, et al. Dense, Robust, and Accurate Motion Field Estimation from Stereo Image Sequences in Real-Time // Proc of the European Conference on Computer Vision. Berlin, Germany: Springer, 2010: 582-595. [本文引用:1]
[10] BASHA T, MOSES Y, KIRYATI N. Multi-view Scene Flow Estimation: A View Centered Variational Approach. International Journal of Computer Vision, 2013, 101(1): 6-21. [本文引用:1]
[11] MENZE M, GEIGER A. Object Scene Flow for Autonomous Vehicles // Proc of the IEEE Conference on Computer Vision and Pa-ttern Recognition. Washington, USA: IEEE, 2015: 3061-3070. [本文引用:2]
[12] VOGEL C, SCHINDLER K, ROTH S. Piecewise Rigid Scene Flow // Proc of the IEEE Conference on Computer Vision. Wa-shington, USA: IEEE, 2013: 1377-1384. [本文引用:1]
[13] SCHUSTER R, WASENMULLER O, KUSCHK G, et al. SceneFlowFields: Dense Interpolation of Sparse Scene Flow Correspondences // Proc of the IEEE Winter Conference on Applications of Computer Vision. Washington, USA: IEEE, 2018: 1056-1065. [本文引用:2]
[14] ZHOU Z K, FAN X N, SHI P F, et al. R-MSFM: Recurrent Multi-scale Feature Modulation for Monocular Depth Estimating // Proc of the IEEE/CVF International Conference on Computer Vision. Washington, USA: IEEE, 2021: 12757-12766. [本文引用:1]
[15] GOTTFRIED J M, FEHR J, GARBE C S. Computing Range Flow from Multi-modal Kinect Data // Proc of the International Sympo-sium on Visual Computing. Berlin, Germany: Springer, 2011: 758-767. [本文引用:2]
[16] QUIROGA J, DEVERNAY F, CROWLEY J. Local/Global Scene Flow Estimation // Proc of the IEEE International Conference on Image Processing. Washington, USA: IEEE, 2013: 3850-3854. [本文引用:1]
[17] HERBST E, REN X F, FOX D. RGB-D Flow: Dense 3-D Motion Estimation Using Color and Depth // Proc of the IEEE Internatio-nal Conference on Robotics and Automation. Washington, USA: IEEE, 2013: 2276-2282. [本文引用:1]
[18] WANG Y C, ZHANG J, LIU Z C, et al. Hand ling Occlusion and Large Displacement Through Improved RGB-D Scene Flow Estimation. IEEE Transactions on Circuits and Systems for Video Te-chnology, 2016, 26(7): 1265-1278. [本文引用:1]
[19] SUN D Q, SUDDERTH E B, PFISTER H. Layered RGBD Scene Flow Estimation // Proc of the IEEE Conference on Computer Vision and Pattern Recognition. Washington, USA: IEEE, 2015: 548-556. [本文引用:3]
[20] MAYER N, IIG E, HÄUSSER P, et al. A Large Dataset to Train Convolutional Networks for Disparity, Optical Flow, and Scene Flow Estimation // Proc of the IEEE Conference on Computer Vision and Pattern Recognition. Washington, USA: IEEE, 2016: 4040-4048. [本文引用:1]
[21] EIGEN D, PUHRSCH C, FERGUS R. Depth Map Prediction from a Single Image Using a Multi-scale Deep Network // Proc of the 27th International Conference on Neural Information Processing Systems. Cambridge, USA: MIT Press, 2014, II: 2366-2374. [本文引用:1]
[22] YANG G S, RAMANAN D. Upgrading Optical Flow to 3D Scene Flow Through Optical Expansion // Proc of the IEEE/CVF Confe-rence on Computer Vision and Pattern Recognition. Washington, USA: IEEE, 2020: 1331-1340. [本文引用:3]
[23] QUIROGA J, BROX T, DEVERNAY F, et al. Dense Semi-Rigid Scene Flow Estimation from RGBD Images // Proc of the European Conference on Computer Vision. Berlin, Germany: Springer, 2014: 567-582. [本文引用:3]
[24] ZHAI M L, XIANG X Z, N, et al. Optical Flow and Scene Flow Estimation: A Survey. Pattern Recognition, 2021, 114. DOI: DOI:10.1016/j.patcog.2021.107861. [本文引用:2]
[25] SUN D Q, ROTH S, BLACK M J. A Quantitative Analysis of Cu-rrent Practices in Optical Flow Estimation and the Principles Behind Them. International Journal of Computer Vision, 2014, 106(2): 115-137. [本文引用:3]
[26] ZHANG C X, CHEN Z, WANG M R, et al. Robust Non-local TV-L1 Optical Flow Estimation with Occlusion Detection. IEEE Transactions on Image Processing, 2017, 26(8): 4055-4067. [本文引用:1]
[27] DONG C, WANG Z S, HAN J M, et al. A Non-local Propagation Filtering Scheme for Edge-Preserving in Variational Optical Flow Computation. Signal Processing: Image Communication, 2021, 93. DOI: DOI:10.1016/j.image.2021.116143. [本文引用:1]
[28] ZHU Y, LAN Z Z, NEWSAM S, et al. Guided Optical Flow Learning[C/OL]. [2022-11-23]. https://arxiv.org/pdf/1702.02295.pdf. [本文引用:1]
[29] LI X X, LIU Y J, JIN H Y, et al. Automatic Layered RGB-D Scene Flow Estimation with Optical Flow Field Constraint. IET Image Processing, 2020, 14(8). DOI: DOI:10.1049/iet-ipr.2020.0230. [本文引用:1]
[30] BROX T, MALIK J. Large Displacement Optical Flow: Descriptor Matching in Variational Motion Estimation. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2011, 33(3): 500-513. [本文引用:2]
[31] 张聪炫, 裴刘继, 陈震, . FRFCM聚类与深度优化的RGBD场景流计算. 电子学报, 2020, 48(7): 1380-1386.
(ZHANG C X, PEI L J, CHEN Z, et al. RGBD Scene Flow Estimation Based on FRFCM Clustering and Depth Optimization. Acta Electronica Sinica, 2020, 48(7): 1380-1386. ) [本文引用:2]