光线追踪立方体内的球体

Ray tracing a sphere inside a cube

我正在尝试对立方体内部的球体进行光线追踪。立方体是由 12 个具有法线的三角形简单构成的。

立方体有单位坐标和单位法线。所以在它的局部space内(-1和1之间),应该有一个半径为0.5的球体。

所以我想我应该在顶点着色器中计算光线:光线原点是插值顶点位置,光线方向是顶点法线(或其相反方向,但我认为这无关紧要)。插值应该完成剩下的工作。

然后在片段着色器中,我应该计算光线球交点,如果有的话,改变片段的颜色。

在立方体的正面和背面,结果似乎是正确的,但在左、右、顶和底面,结果似乎是从错误的角度来的。我应该一直看到中间的球体,而那些侧面不是这样。

谁能告诉我我做错了什么?

这是着色器代码:

顶点着色器:

#version 400

layout(location = 0) in vec3 aPos;
layout(location = 1) in vec3 aNor;

uniform mat4 uProj;
uniform mat4 uView;
uniform mat4 uModel;

out vec3 vRayPos;
out vec3 vRayDir;

void main(void)
{
  gl_Position = uProj * uView * uModel * vec4(aPos, 1);
  vRayPos = aPos;
  vRayDir = inverse(mat3(uModel)) * aNor;
}

片段着色器:

#version 400

in vec3 vRayPos;
in vec3 vRayDir;

out vec4 oFrag;

void main(void)
{
  const vec3 sphereCenter = vec3(0, 0, 0);
  const float sphereRadius = 0.5;

  vec3 rayPos = vRayPos;
  vec3 rayDir = normalize(vRayDir);
  float a = dot(rayDir, rayDir); // TODO: rayDir is a unit vector, so: a = 1.0?
  float b = 2 * dot(rayDir, (rayPos - sphereCenter));
  float c = dot(rayPos - sphereCenter, rayPos - sphereCenter) - sphereRadius * sphereRadius;
  float d = b * b - 4 * a * c;
  float t = min(-b + sqrt(max(0, d)) / 2, -b - sqrt(max(0, d)) / 2);

  vec3 color = (1.0 - step(0, d)) * vec3(0.554, 0.638, 0.447) + step(0, d) * abs(t) * vec3(0.800, 0.113, 0.053);

  oFrag = vec4(color, 1);
}

注意:因子 t 实际上不是必需的,但它给出了光线接触球体的距离,这使它看起来很阴暗。 step(0, d) 函数用于查看是否存在任何交点,而 max(0, d) 函数用于防止着色器因 sqrt(<0) 错误而停止,两者都是为了防止代码分支。

参考:我从https://en.wikipedia.org/wiki/Line%E2%80%93sphere_intersection

得到计算

编辑:这是问题的视频:Video

你的光线应该通过给定片段和相机位置之间的方向来计算。 (在视图 space 中,那将是原点。)顶点法线与它完全无关。

从技术上讲,您可以在顶点着色器中计算光线并将其作为插值传递给片段着色器。但是,这有可能给出不正确的结果,因为输出将是线性的,这是不正确的。

更好的方法是在顶点着色器中输出顶点的视图 space 位置。在片段着色器中,计算从原点到片段视图 space 位置的射线。然后,使用该射线执行射线相交测试。光栅器将正确地插入视图 space 位置。您也可以在片段着色器中自行计算,但硬件在这方面非常擅长,因此让它为您做这件事是有意义的。

综上所述,当前实现的主要问题是使用顶点法线计算光线。那是错误的。您只需要相机位置和片段位置。如果你仔细看你的视频,你会发现所有的面都在画同样的东西,不管相对于相机的位置如何。

对于一个简单的球体,您只需要 camera-fragment 射线。计算从包含它的线到球体中心的距离。如果它小于球体的半径,那就是命中。