所以我试图实现SSAO,但它不按预期工作。 它似乎分裂在位置z = 0(世界空间),在位置z = 0有一条白线。此外,这里的遮挡看起来不正确。SSAO在z = 0处和距离处不正确
加在更大的距离,所以移动相机的情况下,阻塞变得更加古怪
我的着色器来呈现几何形状(实例化):
顶点:
#version 330 core
layout(location = 0) in vec3 vertexPosition;
layout(location = 1) in vec2 vertexUV;
layout(location = 2) in vec3 vertexColor;
layout(location = 3) in vec3 vertexNormal;
layout(location = 4) in mat4 offset;
layout(location = 8) in vec4 instanceColor;
uniform mat4 Projection;
uniform mat4 View;
out vec2 UV;
out vec4 Color;
out vec3 Normal;
void main()
{
mat4 Model = offset;
mat4 MVP = Projection * View * Model;
vec4 Pos = MVP * vec4(endpos,1);
gl_Position = Pos;
UV = vertexUV;
Color = instanceColor;
Normal = normalize((Model * vec4(vertexNormal,0)).xyz);
}
分段:
#version 330 core
in vec2 UV;
in vec4 Color;
in vec3 Normal;
uniform sampler2D Diffuse;
void main()
{
gl_FragData[0] = vec4(Color);
gl_FragData[1] = (vec4(Normal,1)+1)/2;
}
几何通过后,我将SSAO通道与正常和深度信息一起应用。
这是我NoiseTexture:
我使用的硬件深度缓冲。 我计算世界空间中的一切。
这里是片段着色器:
#version 330 core
#define KERNEL_SIZE 16
uniform sampler2D NormalMap;
uniform sampler2D DepthMap;
uniform sampler2D NoiseTexture;
uniform vec2 NoiseScale;
uniform vec2 Resolution;
uniform mat4 InvertViewProjection;
uniform float g_sample_rad = 0.1;
uniform float g_intensity = 2.0;
uniform float g_scale = 0.1;
uniform float g_bias = 0.0;
vec2 CalcTexCoord()
{
return gl_FragCoord.xy/Resolution;
}
vec3 getPosition(vec2 uv)
{
vec4 worldpos;
float depth = texture2D(DepthMap, uv).r;
worldpos.x = uv.x * 2.0f - 1.0f;
worldpos.y = uv.y * 2.0f - 1.0f;
worldpos.z = depth * 2.0f - 1.0f;
worldpos.w = 1.0;
worldpos = InvertViewProjection * worldpos;
worldpos /= worldpos.w;
return worldpos.rgb;
}
vec3 getNormal(vec2 uv)
{
return normalize(texture2D(NormalMap, uv).xyz * 2.0f - 1.0f);
}
vec2 getRandom(vec2 uv)
{
return normalize(texture2D(NoiseTexture, Resolution*uv/NoiseScale).xy * 2.0f - 1.0f);
}
float doAmbientOcclusion(in vec2 tcoord, in vec2 uv, in vec3 p, in vec3 cnorm)
{
vec3 diff = getPosition(tcoord + uv) - p;
vec3 v = normalize(diff);
float d = length(diff)*g_scale;
return max(0.0, dot(cnorm, v) - g_bias)*(1.0/(1.0 + d))*g_intensity;
}
void main()
{
vec4 Kernels[KERNEL_SIZE] =
vec4[](
vec4(0.355512, -0.709318, -0.102371, 0.0),
vec4(0.534186, 0.71511, -0.115167, 0.0),
vec4(-0.87866, 0.157139, -0.115167, 0.0),
vec4(0.140679, -0.475516, -0.0639818, 0.0),
vec4(-0.0796121, 0.158842, -0.677075, 0.0),
vec4(-0.0759516, -0.101676, -0.483625, 0.0),
vec4(0.12493, -0.0223423, -0.483625, 0.0),
vec4(-0.0720074, 0.243395, -0.967251, 0.0),
vec4(-0.207641, 0.414286, 0.187755, 0.0),
vec4(-0.277332, -0.371262, 0.187755, 0.0),
vec4(0.63864, -0.114214, 0.262857, 0.0),
vec4(-0.184051, 0.622119, 0.262857, 0.0),
vec4(0.110007, -0.219486, 0.435574, 0.0),
vec4(0.235085, 0.314707, 0.696918, 0.0),
vec4(-0.290012, 0.0518654, 0.522688, 0.0),
vec4(0.0975089, -0.329594, 0.609803, 0.0)
);
vec2 uv = CalcTexCoord(); //same as UV Coordinate from Vertex
vec3 p = getPosition(uv);
vec3 n = getNormal(uv);
vec2 rand = getRandom(uv);
float ao = 0.0f;
float rad = g_sample_rad/p.z;
for (int j = 0; j < KERNEL_SIZE; ++j)
{
vec2 coord = reflect(Kernels[j].xy, rand)*rad;
ao += doAmbientOcclusion(uv, coord, p, n);
}
ao /= KERNEL_SIZE;
ao = 1 - (ao);
gl_FragColor = vec4(ao,ao,ao, 1);
}
当你说z = 0时,我并不真正关注。你在说什么坐标空间?在NDC空间中,该空间将成为可见视图的中心,并且与屏幕截图显示的图像平面不对角线平行。在其他空间中,对于我所知的所有其他空间来说,它可能是您的近或远剪切平面。我可以告诉你的一件事是,如果使用线性/对数深度缓冲而不是透视,可以减少很多噪音。 –
适合我的是一种混合方法。我使用深度范围反转的浮点深度缓冲区(这样可以排除透视深度中的最佳精度分布),从而消除了这些带状伪影,然后各种基于深度的后处理技术实际上需要线性深度,所以我也会采取上述硬件深度缓冲区,并在着色器中根据需要对其进行线性化。 –
我计算世界空间中的一切,因为我的照明是在世界空间计算的,所以我不想切换空间。 来计算我在世界上的位置我不需要线性深度。我通过从之前保存位置的纹理抽样测试了它,并且都给了我相同的结果。 我的意思是z = 0,这就是世界上的位置。如果我将摄像机朝z方向移动,并查看离z = 0更远的顶点,则它们看起来如图2所示变形。 – PuRe