场景流论文速记—RGBD图像场景流

描述

简单记一下最近看的六篇场景流论文~其中3篇是关于RGBD图像的场景流,另外3篇是关于点云的场景流。
来源:https://zhuanlan.zhihu.com/p/85663856
作者:林小北

所谓场景流,就是光流的三维版本,表述了图像/点云中每个点在前后两帧的变化情况。目前对场景流的研究还局限在实验室阶段,由于缺乏实际数据(打标成本太高)以及客观的评价指标,离工程应用还有不小的距离。此外,巨大的计算量也是一个瓶颈。以下论文可以在文末直接下载。

《Deep Rigid Instance Scene Flow》 CVPR 2019

输入:双目摄像头的前后帧左右图像

核心思想:把场景流分割成多个actor的运动,利用MaskRCNN进行Instance Segmentation,每个Instance的Motion都应该与深度和光流一致。

首先,利用三个预先训练好的子网络提取视觉线索:

a. 利用MaskRCNN进行Instance Segmentation
b. 利用PSM-Net计算深度图(disparity map)
c. 利用PWC-Net计算光流

之后,采用高斯牛顿法最小化下面三个能量函数之和得到3D motion:

a. Photometric Error:前一帧左边图像的inlier像素点,与第二帧的投影位置的像素点必须尽量一致
b. Rigid Fitting:估计出的刚体运动必须与观察到的深度和光流信息一致
c. Flow Consistency:估计出的刚体运动在2d上的投影必须和光流一致

《Learning Rigidity in Dynamic Scenes with a Moving Camera for 3D Motion Field Estimation》 ECCV 2018

输入:前后帧图像的RGBD信息

核心思想:把图像分割为rigid/no-rigid区域,计算rigid区域的ego motion后再结合光流即可得到scene flow。
 

先利用两个预先训练好的子网络提取特征:

a. 利用PWCNet提取前后两帧的光流
b. 利用 rigidity-transform network (RTN)预测ego-motion以及rigidity mask

之后,结合光流、rigidity mask对ego motioon进行refine,保证rigity里面的像素点的光流与ego-motion一致。

最后,综合利用光流、rigidity mask、ego motioon信息即可得到scene flow。

备注:本文的另一个贡献是提出了一个用于场景流的数据库REFRESH。在kitti的inference结果如下,不是很好。

《Every Pixel Counts ++: Joint Learning of Geometry and Motion with 3D Holistic Understanding》TPAMI

输入:单目/双目摄像头的前后帧图像

核心思想:先用三个子网络估计光流、深度、camera motion,送入holistic 3D motion parser (HMP) 按照几何关系即可计算出rigid background的motion和moving objects的motion。

三个子网络先分别进行预训练,再结合HMP考虑如下loss优化三个子网络:

a. Rigid-aware structural matching:按照3D motion投影后rigid部分的结构特点应该match
b. Edge-aware local smoothness:投影后的深度和光流的应该保持smoothness
c. Rigid-aware 3D motion consistency:rigid background的moving object motion值应该尽量小
d. Flow motion consistency in occluded regions:occluded regions的光流前后映射应该一致
e. Multi-scale penalization:累加4个尺度的loss

备注:在双目摄像头的表现优于单目。通过joint learning,光流、深度、camera motion的表现均有提升。

在Kitti上的表现如下,算是差强人意吧。

本文作者还有一篇工作《Every Pixel Counts: Unsupervised Geometry Learning with Holistic 3D Motion Understanding》,是关于估计ego motion的。

《FlowNet3D: Learning Scene Flow in 3D Point Clouds》 CVPR 2018

输入:仅使用点云数据

核心思想:采用pointnet++作为基本模块,提取前后两帧点云特征并进行融合、上采样,直接拟合出scene flow

网络结构如下:

a. 4组set conv layer:pointnet++ 提取点云特征
b. 1组flow embedding layer: 把前后两帧的点云特征mix,第一帧的取中心点,其临近点从第二帧取,再提取特征
c. 4组set upconv layer:上采样,新增点从邻近点获取特征
 

loss为smooth L1 loss

备注:在合成数据集上训练的模型可以直接在kitti上work,但与图像场景流的论文不同,没有把background和moving object做区分,没有考虑ego motion。

《HPLFlowNet: Hierarchical Permutohedral Lattice FlowNet for Scene Flow Estimation on Large-scale Point Clouds》 CVPR 2019

输入:仅使用点云数据

核心思想:采用Bilateral Convolutional Layers作为基本模块,提取前后两帧点云特征并进行融合、上采样,直接拟合出scene flow。

备注:与FlowNet3D的整体结构一样,都是下采样-融合-上采样。Bilateral Convolutional Layers能够快速处理高维稀疏数据,是不同于PointNet的一种滤波操作。

《PointFlowNet: Learning Representations for Rigid Motion Estimation from Point Clouds》 CVPR 2019

输入:仅使用点云数据

核心思想:利用点云数据提取特征后,分别生成ego motion、scene flow、rigid motion、objection location,再整合结果输出

细节如下:

a. 采用VolexNet作为feature encoder
b. 把前后两帧的特征进行concate,接入context encoder
c. 之后,接入三个分支:

i. ego-miotion regressor
ii. sceneflow decoder -> rigid motion decoder(证明了rigid motion decoder 无法使用卷积层,故此处采用了fc)
iii. objection location decoder

d. 把检测出的object和motion融合得到结果

loss为 Scene Flow Loss + Rigid Motion Loss + Ego-motion Loss + Detection Loss

备注:本文思路与图像类方法很像,也是考虑各个instance的motion。

总结

  • Deep Rigid Instance Scene Flow:

输入为双目图像,用MaskRCNN把动静态障碍物分开。三个子网络分别独立训练并计算出Instance Segmentation、深度图、光流,利用三个子网络的结果计算motion,进而得到scene flow。

  • Learning Rigidity in Dynamic Scenes with a Moving Camera for 3D Motion Field Estimation:

输入为RGBD图像,两个子网络分别独立训练并算出光流、ego-motion&rigid mask,refine ego motion后算出scene flow。

  • Every Pixel Counts ++:

输入为单目/双目摄像头,先用三个子网络估计光流、深度、camera motion,再按照几何关系计算出rigid background的motion和moving objects的motion,之后根据一致性对三个子网络进行优化。

  • FlowNet3D 以及 HPLFlowNet:

分别对前后两帧点云下采样提取特征并进行融合、上采样,直接拟合出scene flow。

  • PointFlowNet(思路类似Deep Rigid Instance Scene Flow):

采用volexnet提取前后两帧点云特征并融合,先检测出object、计算出ego motion、scene flow,再去回归各个object的motion。

审核编辑:符乾江
打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分