实时渲染路径追踪概述

大家好,本文是对Real-Time Path Tracing and Beyond和它的视频:HPG 2022 Monday, Day 1 (enhanced)学习的总结,并结合我的理解进行了一些延伸

得益于下面的技术进步,使得通常应用于离线渲染技术中的路径追踪能够应用于实时渲染:

  • RTX显卡带来的硬件光追管线
    使用该管线可使射线与场景相交计算大幅提升;并且不再需要自己维护BVH加速结构,而是直接使用管线默认提供的加速结构来代替
  • 新的采样方法:ReSTIR
    该采样方法通过在渲染过程中减少采样的方差,带来了几十倍的速度提升;并且能够优化有大量光源的情况;并且支持更健壮的光源路径(比如光源隐藏在门后的情况)
  • 新的降噪技术
    主要代表为SVGF等结合时间和空间上的信息一起做Filter的降噪算法以及基于神经网络降噪技术

渲染管线

实时渲染路径追踪的渲染管线如下图所示:
实时渲染路径追踪概述

管线分为三个部分:
前端->光照传输->后处理

下面依次讨论:

前端

前端主要负责组织场景数据,包括构造和更新场景数据

有两个实现方案:

光照传输

光照传输使用路径追踪来实现直接光照和间接光照的计算。

不过对路径追踪进行了下面的改进:

  • 使用ReSTIR采样方法
  • 使用RTXDI计算直接光照
  • 使用ReSTIR GI计算间接光照

原文还对frameless render进行了讨论,不过我不是很了解

后处理

后处理包括降噪->DLSS->其它后处理(如tone map)

这里讨论降噪

原文使用了Nvdia的NRD Denoiser来降噪,它相当于SVGF的改进版

我其实更看好神经网络降噪,这也是最近的发展趋势

原文中也提到了一种神经网络降噪的方法:Neural Temporal Adaptive Sampling and Denoising

它还有改进的论文:
Interactive Monte Carlo Denoising using Affinity of Neural Features

通过参考下面的资料:

我确定了通过依次实现下面的论文,可以逐渐改进蒙特卡洛降噪器:

  • LBF
    A machine learning approach for filtering Monte Carlo noise
  • KPCN
    Kernel-predicting convolutional networks for denoising Monte Carlo renderings
  • KPAL
    Denoising with kernel prediction and asymmetric loss functions
  • Monte Carlo Denoising via Auxiliary Feature Guided Self-Attention
  • Self-Supervised Post-Correction for Monte Carlo Denoising

slang: 着色器语言中的Typescript

因为使用了统一的路径追踪算法,所以只需要一个shader

这个shader原文作者写了1万行,规模相当大,因此需要一种更容易维护、更模块化的shader语言

因此,原文作者使用了slang,它支持接口定义等语法,貌似可以进行单元测试,可以编译为GLSL、HLSL等着色器语言

slang相当于Typescript,也就是在原始的着色器语言之上增加了一层编译器

我构想的具体实现的方案

下面是我构想的具体实现的方案:

应用领域

Web3D

技术栈

  • WebGPU
    如果渲染器是运行在浏览器中的话,则使用WebGPU这个图形API。但是目前WebGPU只有计算管线而没有光追管线,所以我们就需要自己维护BVH
  • WebGPU Node
    如果渲染器是运行在Nodejs中的话,则可以使用WebGPU Node这个开源的Nodejs项目。它底层封装了Vulkan SDK,上层使用了dawn-ray-tracing项目,提供了WebGPU API,实现了在Nodejs环境中使用WebGPU API和光追管线来实现硬件加速的光线追踪。
    具体介绍可见WebGPU+光线追踪Ray Tracing 开发三个月总结

技术方案

我们应该会优先使用WebGPU Node,因为它支持光追管线

我们使用自主开发的神经网络降噪器来降噪

我们基于自主开发的Meta3D:开源Web3D低代码平台,通过实现多个独立且可组装的扩展来开发可维护、可扩展、可读的渲染器

初步的开发计划

1.实现基础的神经网络降噪器

需要重点实现:

需要使用我开发的深度学习库,并将其改为支持GPU端训练和推理

2.直接使用基础的路径追踪算法来渲染基本的场景,并用神经网络降噪器来降噪

3.使用slang来写着色器语言,编译为GLSL

4.实现动态场景

5.将渲染器拆成光照传输和降噪器两个部分,并重构为基于Meta3D的扩展

6.将光照传输改为使用RTXDI实现直接光照、使用ReSTIR实现间接光照

发表评论

相关文章