即插即用!百度提出S3IM:用于NeRF提点的Magic Loss

描述

本文介绍一下我组在ICCV2023的论文“S3IM: Stochastic Structural SIMilarity and Its Unreasonable Effectiveness for Neural Fields”。

S3IM这个工作背后的想法实际上很简洁,从这个idea在脑海里形成到最后提交到ICCV2023不过2个月时间。

可视化

S3IM: Stochastic Structural SIMilarity and Its Unreasonable Effectiveness for Neural Fields

论文:arxiv.org/abs/2308.07032

代码:github.com/Madaoer/S3IM-Neural-Fields

用一句话来总结这个工作就是——我们提出了一种即插即用的loss S3IM(随机结构相似性),可以近乎零成本地显著提升现存NeRF类方法的性能指标。在几个场景里,我们甚至可以把TensoRF和DVGO这些经典模型的Test MSE Loss下降99%,同时把NeuS的几何重建指标(比如Chamfer L1 Distance)改善超过60%。

这里我们先看几组RGB和几何重建的可视化结果。

可视化

可视化

不仅如此,还可以提高对图像噪音的鲁棒性。如下图所示,S3IM的渲染结果明显去掉了图像里灰蒙蒙的噪音。

可视化

毫无疑问,S3IM极大地增强了现有的NeRF类方法。

S3IM的精髓在于以两个像素集合之间的相似性作为训练损失;像素集合一般包含数千个像素,这些像素一起贡献了互相关联的、全局的结构信息。

而NeRF传统的MSE是一种以两个独立像素之间的point-wise error作为训练损失;所以MSE只包含了像素点孤立的信息、完全没有远距离或者全局的信息。

上面这两段话就是S3IM的motivation。

为什么有结构信息更好?

这是一个很好的问题。

但我们先回答另一个相关的问题,为什么NeRF的性能指标要有3个——PSNR、SSIM和LPIPS?

PSNR就是像素之间point-wise的度量。很早大家就发现,PSNR好不代表真的就好。

SSIM(结构相似性)作为一种和人类视觉感知相关性更高的度量在2004年图像评估领域应运而生。

LPIPS则是一种通过预训练神经网络提取特征计算特征距离的指标(一般叫做感知指标)。

SSIM和LPIPS其实都具备衡量两个像素集合之间相似性的能力,而且与人类视觉感知相关性都比PSNR高。

熟悉NeRF的读者都知道,传统NeRF训练时是用MSE Loss。而PSNR和MSE其实就是一个简单的对数关系。

MSE和PSNR这类point-wise指标都是不够好的。一方面是和人类视觉感知相关性低,另一方面则是无法捕捉多个像素(像素集合)的整体信息。

那么SSIM和LPIPS可不可以直接作为NeRF的loss训练呢?

其实也可以,但仍然不够好。

因为SSIM和LPIPS都是基于卷积核的相似性度量,它们只能捕捉相近像素的局部信息,不能捕捉更远的像素包含的结构信息。

我们的ICCV工作就是把SSIM(Structural SIMilarity)这个经典图像质量评估指标升级,变为S3IM(Stochastic Structural SIMilarity)。

这个升级方式也很简单。SSIM只能在图像local patch用卷积核对吧。

那我们把NeRF训练时每个minibatch的像素随机拼接成一个patch(叫做stochastic patch),然后再用SSIM处理这些stochastic patch就行了。

有时候,真理就是这么朴实无华啊...

知名3D几何重建开源框架SDFStudio也已经把S3IM方法合并进去了。

最后再放一个量化的实验结果。表里Multiplex即是我们的S3IM方法。

可视化

S3IM这个工作是我们Machine Learning for Fields系列工作的一环。我们在从机器学习的角度考虑场的问题。

无论是神经辐射场还是其他什么场,广义来说都是某个coordinate-wise的物理量。NeRF只是把辐射场的物理先验知识(空间中包含发光气体)嵌入了sampling的部分而已。这对3D场景表示不是完美的,但确实非常有用,也掀起了热潮。

 

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分