1
0
mirror of https://github.com/LearnOpenGL-CN/LearnOpenGL-CN.git synced 2025-08-22 20:25:28 +08:00
Files
LearnOpenGL-CN/docs/05 Advanced Lighting/07 Bloom.md

275 lines
17 KiB
Markdown
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

# 泛光
原文 | [Bloom](http://learnopengl.com/#!Advanced-Lighting/Bloom)
---|---
作者 | JoeyDeVries
翻译 | [Django](http://bullteacher.com/)
校对 | gjy_1992, [AoZhang](https://github.com/SuperAoao)
!!! note
本节暂未进行完全的重写,错误可能会很多。如果可能的话,请对照原文进行阅读。如果有报告本节的错误,将会延迟至重写之后进行处理。
明亮的光源和区域经常很难向观察者表达出来,因为显示器的亮度范围是有限的。一种在显示器上区分明亮光源的方式是使它们发出光芒,光芒从光源向四周发散。这有效地给观众一种这些光源或明亮的区域非常亮的错觉。(译注:这个问题的提出简单来说是为了解决这样的问题:例如有一张在阳光下的白纸,白纸在显示器上显示出是出白色,而前方的太阳也是纯白色的,所以基本上白纸和太阳就是一样的了,给太阳加一个光晕,这样太阳看起来似乎就比白纸更亮了)
这种光流,或发光效果,是通过一种叫做泛光(Bloom)的后期处理效果来实现的。泛光使场景中所有明亮的区域都具有类似发光的效果。下面是带有或不带有辉光的场景示例(图片由Epic Games提供)
![](../img/05/07/bloom_example.png)
泛光提供了一种针对物体明亮度的视觉效果。当用优雅微妙的方式实现泛光效果(有些游戏完全没能做到),将会显著增强您的场景光照并能提供更加有张力的效果。
泛光和HDR结合使用效果最好。很多人以为HDR和泛光是一样的认为两种技术是可以互换的这是一种常见误解。它们是两种完全不同的技术用于各自不同的目的。可以使用默认的8位精确度的帧缓冲来实现泛光效果也可以只使用HDR效果而不使用泛光效果。只不过在有了HDR之后再实现泛光就更简单了(正如我们稍后会看到的)。
为实现泛光我们像平时那样渲染一个有光场景提取出场景的HDR颜色缓冲以及只有这个场景明亮区域可见的图片。然后对提取的亮度图像进行模糊处理并将结果添加到原始HDR场景图像的上面。
我们来一步一步解释这个处理过程。我们在场景中渲染一个带有4个立方体形式不同颜色的明亮的光源。带有颜色的发光立方体的亮度在1.5到15.0之间。如果我们将其渲染至HDR颜色缓冲场景看起来会是这样的
![](../img/05/07/bloom_scene.png)
我们得到这个HDR颜色缓冲纹理提取所有超出一定亮度的fragment。这样我们就会获得一个只有fragment超过了一定阈限的颜色区域
![](../img/05/07/bloom_extracted.png)
我们将这个超过一定亮度阈限的纹理进行模糊处理。泛光效果的强度很大程度上是由模糊过滤器的范围和强度决定的。
![](../img/05/07/bloom_blurred.png)
最终的被模糊化的纹理就是我们用来获得发出光晕效果的东西。这个已模糊的纹理要添加到原来的HDR场景纹理之上。由于模糊滤镜的作用明亮的区域在宽度和高度上都得到了扩展因此场景中的明亮区域看起来会发光或流光。
![](../img/05/07/bloom_small.png)
泛光本身并不是个复杂的技术,但很难获得正确的效果。它的品质很大程度上取决于所用的模糊过滤器的质量和类型。简单地改改模糊过滤器就会极大的改变泛光效果的品质。
下面这几步就是泛光后处理特效的过程,它总结了实现泛光所需的步骤。
![](../img/05/07/bloom_steps.png)
首先我们需要根据一定的阈限提取所有明亮的颜色。我们先来做这件事。
## 提取亮色
第一步我们要从渲染出来的场景中提取两张图片。我们可以渲染场景两次每次使用一个不同的着色器渲染到不同的帧缓冲中但我们可以使用一个叫做MRTMultiple Render Targets多渲染目标的小技巧这样我们就能指定多个像素着色器输出有了它我们还能够在一个单独渲染处理中提取头两个图片。在像素着色器的输出前我们指定一个布局location标识符这样我们便可控制一个像素着色器写入到哪个颜色缓冲
```c++
layout (location = 0) out vec4 FragColor;
layout (location = 1) out vec4 BrightColor;
```
只有我们真的具有多个可供写入的缓冲区时这种方式才能工作。使用多个像素着色器输出的必要条件是,有多个颜色缓冲附加到了当前绑定的帧缓冲对象上。你可能从[帧缓冲](../04%20Advanced%20OpenGL/05%20Framebuffers.md)教程那里回忆起,当把一个纹理链接到帧缓冲的颜色缓冲上时,我们可以指定一个颜色附件。直到现在,我们一直使用着<var>GL_COLOR_ATTACHMENT0</var>,但通过使用<var>GL_COLOR_ATTACHMENT1</var>,我们可以得到一个附加了两个颜色缓冲的帧缓冲对象:
```c++
// Set up floating point framebuffer to render scene to
GLuint hdrFBO;
glGenFramebuffers(1, &hdrFBO);
glBindFramebuffer(GL_FRAMEBUFFER, hdrFBO);
GLuint colorBuffers[2];
glGenTextures(2, colorBuffers);
for (GLuint i = 0; i < 2; i++)
{
glBindTexture(GL_TEXTURE_2D, colorBuffers[i]);
glTexImage2D(
GL_TEXTURE_2D, 0, GL_RGB16F, SCR_WIDTH, SCR_HEIGHT, 0, GL_RGB, GL_FLOAT, NULL
);
glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MIN_FILTER, GL_LINEAR);
glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MAG_FILTER, GL_LINEAR);
glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_WRAP_S, GL_CLAMP_TO_EDGE);
glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_WRAP_T, GL_CLAMP_TO_EDGE);
// attach texture to framebuffer
glFramebufferTexture2D(
GL_FRAMEBUFFER, GL_COLOR_ATTACHMENT0 + i, GL_TEXTURE_2D, colorBuffers[i], 0
);
}
```
我们需要显式告知OpenGL我们正在通过glDrawBuffers渲染到多个颜色缓冲否则OpenGL只会渲染到帧缓冲的第一个颜色附件而忽略所有其他的。我们可以通过传递多个颜色附件的枚举来做这件事我们以下面的操作进行渲染
```c++
GLuint attachments[2] = { GL_COLOR_ATTACHMENT0, GL_COLOR_ATTACHMENT1 };
glDrawBuffers(2, attachments);
```
当渲染到这个帧缓冲的时候一个着色器使用一个布局location修饰符fragment就会写入对应的颜色缓冲。这很棒因为这样省去了我们为提取明亮区域的额外渲染步骤因为我们现在可以直接从将被渲染的fragment提取出它们
```c++
#version 330 core
layout (location = 0) out vec4 FragColor;
layout (location = 1) out vec4 BrightColor;
[...]
void main()
{
[...] // first do normal lighting calculations and output results
FragColor = vec4(lighting, 1.0f);
// Check whether fragment output is higher than threshold, if so output as brightness color
float brightness = dot(FragColor.rgb, vec3(0.2126, 0.7152, 0.0722));
if(brightness > 1.0)
BrightColor = vec4(FragColor.rgb, 1.0);
}
```
这里我们先正常计算光照,将其传递给第一个像素着色器的输出变量<var>FragColor</var>。然后我们使用当前储存在<var>FragColor</var>的东西来决定它的亮度是否超过了一定阈限。我们首先通过适当地将其转换为灰度来计算片段的亮度(通过取两个向量的点积,我们有效地将两个向量的每个单独分量相乘并将结果加在一起)。如果亮度超过某个阈值,我们将颜色输出到第二个颜色缓冲区。我们对光立方体做同样的处理。
这也说明了为什么泛光在HDR基础上能够工作得特别好。因为HDR中我们可以将颜色值指定超过1.0这个默认的范围我们能够得到对图像中的亮度更好的控制权。没有HDR我们必须将阈限设置为小于1.0的数,这种方式仍然可行,但是亮部很容易变得很多,这就导致光晕效果过重(比如白雪的光晕效果)。
有了两个颜色缓冲,我们就有了一个正常场景的图像和一个提取出的亮区的图像。这些都在一个渲染步骤中完成。
![](../img/05/07/bloom_attachments.png)
有了一个提取出的亮区图像,我们现在需要对该图像进行模糊处理。我们可以使用帧缓冲章节中后处理部分那个简单的盒子过滤器,但我们最好还是使用一个更高级(也更漂亮)的模糊过滤器:**高斯模糊(Gaussian blur)**。
## 高斯模糊
在后处理教程那里,我们采用的模糊是一个图像中所有周围像素的均值,它的确为我们提供了一个简易实现的模糊,但效果并不是最好的。高斯模糊基于高斯曲线,高斯曲线通常被描述为一个钟形曲线,中间的值达到最大化,随着距离的增加,两边的值不断减少。高斯曲线在数学上有不同的形式,但是通常是这样的形状:
![](../img/05/07/bloom_gaussian.png)
高斯曲线在它的中间处的面积最大使用它的值作为权重使得近处的样本拥有最大的优先权。比如如果我们从fragment的32×32的四方形区域采样这个权重随着和fragment的距离变大逐渐减小通常这会得到更好更真实的模糊效果这种模糊叫做高斯模糊。
为了实现高斯模糊过滤器我们需要一个二维权重正方形我们可以从二维高斯曲线方程中获得权重。然而这个过程有个问题就是很快会消耗极大的性能。以一个32×32的模糊kernel为例我们必须对每个fragment从一个纹理中采样1024次
幸运的是高斯方程有个非常巧妙的特性它允许我们把二维方程分解为两个更小的方程一个描述水平权重另一个描述垂直权重。我们首先用水平权重在整个纹理上进行水平模糊然后在经改变的纹理上进行垂直模糊。利用这个特性结果是一样的但是可以节省难以置信的性能因为我们现在只需做32+32次采样不再是1024了这叫做两步高斯模糊。
![](../img/05/07/bloom_gaussian_two_pass.png)
这意味着我们如果对一个图像进行模糊处理,至少需要两步,最好使用帧缓冲对象做这件事。具体来说,我们将实现像乒乓球一样的帧缓冲来实现高斯模糊。它的意思是,有一对儿帧缓冲,我们把另一个帧缓冲的颜色缓冲放进当前的帧缓冲的颜色缓冲中,使用不同的着色效果渲染指定的次数。基本上就是不断地切换帧缓冲和纹理去绘制。这样我们先在场景纹理的第一个缓冲中进行模糊,然后在把第一个帧缓冲的颜色缓冲放进第二个帧缓冲进行模糊,接着,将第二个帧缓冲的颜色缓冲放进第一个,循环往复。
在我们研究帧缓冲之前,先讨论高斯模糊的像素着色器:
```c++
#version 330 core
out vec4 FragColor;
in vec2 TexCoords;
uniform sampler2D image;
uniform bool horizontal;
uniform float weight[5] = float[] (0.227027, 0.1945946, 0.1216216, 0.054054, 0.016216);
void main()
{
vec2 tex_offset = 1.0 / textureSize(image, 0); // gets size of single texel
vec3 result = texture(image, TexCoords).rgb * weight[0]; // current fragment's contribution
if(horizontal)
{
for(int i = 1; i < 5; ++i)
{
result += texture(image, TexCoords + vec2(tex_offset.x * i, 0.0)).rgb * weight[i];
result += texture(image, TexCoords - vec2(tex_offset.x * i, 0.0)).rgb * weight[i];
}
}
else
{
for(int i = 1; i < 5; ++i)
{
result += texture(image, TexCoords + vec2(0.0, tex_offset.y * i)).rgb * weight[i];
result += texture(image, TexCoords - vec2(0.0, tex_offset.y * i)).rgb * weight[i];
}
}
FragColor = vec4(result, 1.0);
}
```
这里我们使用一个比较小的高斯权重做例子每次我们用它来指定当前fragment的水平或垂直样本的特定权重。你会发现我们基本上是将模糊过滤器根据我们在uniform变量horizontal设置的值分割为一个水平和一个垂直部分。通过用1.0除以纹理的大小从textureSize得到一个vec2得到一个纹理像素的实际大小以此作为偏移距离的根据。
我们为图像的模糊处理创建两个基本的帧缓冲,每个只有一个颜色缓冲纹理:
```c++
GLuint pingpongFBO[2];
GLuint pingpongBuffer[2];
glGenFramebuffers(2, pingpongFBO);
glGenTextures(2, pingpongBuffer);
for (GLuint i = 0; i < 2; i++)
{
glBindFramebuffer(GL_FRAMEBUFFER, pingpongFBO[i]);
glBindTexture(GL_TEXTURE_2D, pingpongBuffer[i]);
glTexImage2D(
GL_TEXTURE_2D, 0, GL_RGB16F, SCR_WIDTH, SCR_HEIGHT, 0, GL_RGB, GL_FLOAT, NULL
);
glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MIN_FILTER, GL_LINEAR);
glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MAG_FILTER, GL_LINEAR);
glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_WRAP_S, GL_CLAMP_TO_EDGE);
glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_WRAP_T, GL_CLAMP_TO_EDGE);
glFramebufferTexture2D(
GL_FRAMEBUFFER, GL_COLOR_ATTACHMENT0, GL_TEXTURE_2D, pingpongBuffer[i], 0
);
}
```
得到一个HDR纹理后我们用提取出来的亮区纹理填充一个帧缓冲然后对其模糊处理10次5次垂直5次水平
```c++
GLboolean horizontal = true, first_iteration = true;
GLuint amount = 10;
shaderBlur.Use();
for (GLuint i = 0; i < amount; i++)
{
glBindFramebuffer(GL_FRAMEBUFFER, pingpongFBO[horizontal]);
glUniform1i(glGetUniformLocation(shaderBlur.Program, "horizontal"), horizontal);
glBindTexture(
GL_TEXTURE_2D, first_iteration ? colorBuffers[1] : pingpongBuffers[!horizontal]
);
RenderQuad();
horizontal = !horizontal;
if (first_iteration)
first_iteration = false;
}
glBindFramebuffer(GL_FRAMEBUFFER, 0);
```
每次循环我们根据我们打算渲染的是水平还是垂直来绑定两个缓冲其中之一而将另一个绑定为纹理进行模糊。第一次迭代因为两个颜色缓冲都是空的所以我们随意绑定一个去进行模糊处理。重复这个步骤10次亮区图像就进行一个重复5次的高斯模糊了。这样我们可以对任意图像进行任意次模糊处理高斯模糊循环次数越多模糊的强度越大。
通过对提取亮区纹理进行5次模糊我们就得到了一个正确的模糊的场景亮区图像。
![](../img/05/07/bloom_blurred_large.png)
泛光的最后一步是把模糊处理的图像和场景原来的HDR纹理进行结合。
## 把两个纹理混合
有了场景的HDR纹理和模糊处理的亮区纹理我们只需把它们结合起来就能实现泛光或称光晕效果了。最终的像素着色器大部分和HDR教程用的差不多要把两个纹理混合
```c++
#version 330 core
out vec4 FragColor;
in vec2 TexCoords;
uniform sampler2D scene;
uniform sampler2D bloomBlur;
uniform float exposure;
void main()
{
const float gamma = 2.2;
vec3 hdrColor = texture(scene, TexCoords).rgb;
vec3 bloomColor = texture(bloomBlur, TexCoords).rgb;
hdrColor += bloomColor; // additive blending
// tone mapping
vec3 result = vec3(1.0) - exp(-hdrColor * exposure);
// also gamma correct while we're at it
result = pow(result, vec3(1.0 / gamma));
FragColor = vec4(result, 1.0f);
}
```
要注意的是我们要在应用色调映射之前添加泛光效果。这样添加的亮区的泛光也会柔和转换为LDR光照效果相对会更好。
把两个纹理结合以后,场景亮区便有了合适的光晕特效:
![](../img/05/07/bloom.png)
有颜色的立方体看起来仿佛更亮,它向外发射光芒,的确是一个更好的视觉效果。这个场景比较简单,所以泛光效果不算十分令人瞩目,但在更充足照明的场景中合理配置之后效果会有明显的不同。你可以在[这里](https://learnopengl.com/code_viewer_gh.php?code=src/5.advanced_lighting/7.bloom/bloom.cpp)找到这个简单示例的源代码。
这个教程我们只是用了一个相对简单的高斯模糊过滤器它在每个方向上只有5个样本。通过沿着更大的半径或重复更多次数的模糊进行采样我们就可以提升模糊的效果。因为模糊的质量与泛光效果的质量正相关提升模糊效果就能够提升泛光效果。有些提升将模糊过滤器与不同大小的模糊kernel或采用多个高斯曲线来选择性地结合权重结合起来使用。来自Kalogirou和EpicGames的附加资源讨论了如何通过提升高斯模糊来显著提升泛光效果。
## 附加资源
- [Efficient Gaussian Blur with linear sampling](http://rastergrid.com/blog/2010/09/efficient-gaussian-blur-with-linear-sampling/)非常详细地描述了高斯模糊以及如何使用OpenGL的双线性纹理采样提升性能。
- [Bloom Post Process Effect](https://udn.epicgames.com/Three/Bloom.html)来自Epic Games关于通过对权重的多个高斯曲线结合来提升泛光效果的文章。
- [How to do good bloom for HDR rendering](http://kalogirou.net/2006/05/20/how-to-do-good-bloom-for-hdr-rendering/)Kalogirou的文章描述了如何使用更好的高斯模糊算法来提升泛光效果。