在上一篇博客中,我们介绍了GLSL矩阵变换的基础概念,包括旋转、平移等操作。现在我们将继续深入探讨摄像机位置和姿态的设定,以及如何定义成像区域。
为了实现这些功能,我们引入了两个重要的矩阵:视图矩阵(View Matrix)和投影矩阵(Projection Matrix)。其中,视图矩阵用于描述摄像机的位置和方向,而投影矩阵则负责将3D场景转换为2D图像。
视图矩阵 (View Matrix)
在GLSL中,我们可以通过调用 QMatrix4x4::lookAt(camera, center, upDirection)
方法来定义视图矩阵。这个函数接收三个参数,都是 QVector3D
类型:
camera
: 摄像机在世界坐标系中的位置。
center
: 摄像机光轴上的一个点,它决定了摄像机的观察方向。
upDirection
: 定义了“上”的方向,确保生成的图像具有正确的朝向。
注意:upDirection
不能与摄像机的光轴平行,否则会导致无法正确计算。
投影矩阵 (Projection Matrix)
投影矩阵用于定义成像区域。常用的投影方法有正交投影(Orthographic Projection)和透视投影(Perspective Projection)。在这里我们使用正交投影作为示例:
m1.ortho(-1.0f, +1.0f, -1.0f, 1.0f, 0.0f, 15.0f); // 正交投影矩阵
m2.lookAt(QVector3D(10, 0, 10), QVector3D(0, 0, 0), QVector3D(0, 1, 0)); // 视图矩阵
m3.translate(0, -0.707, 0.0); // 模型矩阵
m3.rotate(45, 0.0f, 0.0f, 1.0f); // 模型矩阵旋转
m = m1 * m2 * m3; // 组合矩阵
m_pProgram->setUniformValue("mat4MVP", m);
效果分析
通过上述代码,我们可以看到摄像机和纹理图在世界坐标系中的相对位置。当摄像机位于 (10, 0, 10) 时,从摄像机到纹理中心的距离为 14.14 单位。由于设置了正交投影范围为 (-1, 1, -1, 1, 0, 15),因此在这个范围内的一切物体都能被正常显示。
当我们把摄像机移动到更远的位置 (20, 0, 10),此时摄像机视角变得倾斜,导致图像在 X 和 Y 方向的比例出现差异。
进一步地,如果我们取极限值 22.36 = sqrt(20^2 + 10^2),这是摄像机到纹理中心的距离。如果将此值作为视景体背面到摄像机的距离,则只有靠近摄像机的一半纹理会被显示出来,另一半则超出视景体范围。