如何将3D点转换为2D透视投影?

2022-08-31 14:39:44

我目前正在使用贝塞尔曲线和表面来绘制着名的犹他州茶壶。使用16个控制点的贝塞尔补丁,我已经能够绘制茶壶并使用“世界到相机”功能显示它,该功能能够旋转生成的茶壶,并且目前正在使用正交投影。

结果是我有一个“扁平”的茶壶,这是预期的,因为正交投影的目的是保留平行线。

但是,我想使用透视投影来给出茶壶深度。我的问题是,如何将从“世界到相机”功能返回的3D xyz顶点转换为2D坐标。我想在z=0时使用投影平面,并允许用户使用键盘上的箭头键确定焦距和图像大小。

我正在用java编程,并设置了所有输入事件处理程序,并且还编写了一个处理基本矩阵乘法的矩阵类。我已经阅读了维基百科和其他资源一段时间,但我无法完全掌握如何执行这种转换。


答案 1

我看到这个问题有点旧,但我还是决定为那些通过搜索找到这个问题的人提供答案。
如今,表示 2D/3D 变换的标准方法是使用齐次坐标[x,y,w] 表示 2D,[x,y,z,w] 表示 3D。由于您在 3D 和平移中具有三个轴,因此该信息非常适合 4x4 变换矩阵。我将在此解释中使用列主矩阵表示法。除非另有说明,否则所有矩阵均为 4x4。
从 3D 点到栅格化点、线或面的阶段如下所示:

  1. 使用反向相机矩阵转换您的 3D 点,然后进行所需的任何转换。如果您有曲面法线,也请转换它们,但将w设置为零,因为您不想转换法线。转换法线的矩阵必须是各向同性的;缩放和剪切会使法线变形。
  2. 使用剪辑空间矩阵变换点。此矩阵使用视场和纵横比缩放 x 和 y,通过近和远修剪平面缩放 z,并将“旧”z 插入 w。转换后,应将 x、y 和 z 除以 w。这称为透视分界线。
  3. 现在,您的顶点位于剪辑空间中,并且您希望执行剪切,以便不会渲染视口边界之外的任何像素。Sutherland-Hodgeman削波是使用中最广泛的削波算法。
  4. 将 x 和 y 相对于 w 以及半宽和半高进行变换。您的 x 和 y 坐标现在位于视口坐标中。w 将被丢弃,但通常会保存 1/w 和 z,因为在多边形表面上执行透视校正插值需要 1/w,而 z 存储在 z 缓冲区中并用于深度测试。

此阶段是实际投影,因为 z 不再用作该位置的组件。

算法:

视场计算

这将计算视场。棕褐色是需要弧度还是度数无关紧要,但角度必须匹配。请注意,当角度接近 180 度时,结果达到无穷大。这是一个奇点,因为不可能有一个如此广泛的焦点。如果想要数值稳定性,请保持角度小于或等于 179 度。

fov = 1.0 / tan(angle/2.0)

另请注意 1.0 / tan(45) = 1。这里的其他人建议只除以z。这里的结果很清楚。您将获得90度的FOV和1:1的宽高比。像这样使用齐次坐标还有其他几个优点。例如,我们可以对近平面和远平面进行削波,而无需将其视为特例。

剪辑矩阵的计算

这是剪辑矩阵的布局。aspectRatio 是 Width/Height。因此,x 分量的 FOV 基于 y 的 FOV 进行缩放。远和近是系数,它们是近和远修剪平面的距离。

[fov * aspectRatio][        0        ][        0              ][        0       ]
[        0        ][       fov       ][        0              ][        0       ]
[        0        ][        0        ][(far+near)/(far-near)  ][        1       ]
[        0        ][        0        ][(2*near*far)/(near-far)][        0       ]

屏幕投影

剪辑后,这是获取屏幕坐标的最终转换。

new_x = (x * Width ) / (2.0 * w) + halfWidth;
new_y = (y * Height) / (2.0 * w) + halfHeight;

C++中的简单示例实现

#include <vector>
#include <cmath>
#include <stdexcept>
#include <algorithm>

struct Vector
{
    Vector() : x(0),y(0),z(0),w(1){}
    Vector(float a, float b, float c) : x(a),y(b),z(c),w(1){}

    /* Assume proper operator overloads here, with vectors and scalars */
    float Length() const
    {
        return std::sqrt(x*x + y*y + z*z);
    }
    
    Vector Unit() const
    {
        const float epsilon = 1e-6;
        float mag = Length();
        if(mag < epsilon){
            std::out_of_range e("");
            throw e;
        }
        return *this / mag;
    }
};

inline float Dot(const Vector& v1, const Vector& v2)
{
    return v1.x*v2.x + v1.y*v2.y + v1.z*v2.z;
}

class Matrix
{
    public:
    Matrix() : data(16)
    {
        Identity();
    }
    void Identity()
    {
        std::fill(data.begin(), data.end(), float(0));
        data[0] = data[5] = data[10] = data[15] = 1.0f;
    }
    float& operator[](size_t index)
    {
        if(index >= 16){
            std::out_of_range e("");
            throw e;
        }
        return data[index];
    }
    Matrix operator*(const Matrix& m) const
    {
        Matrix dst;
        int col;
        for(int y=0; y<4; ++y){
            col = y*4;
            for(int x=0; x<4; ++x){
                for(int i=0; i<4; ++i){
                    dst[x+col] += m[i+col]*data[x+i*4];
                }
            }
        }
        return dst;
    }
    Matrix& operator*=(const Matrix& m)
    {
        *this = (*this) * m;
        return *this;
    }

    /* The interesting stuff */
    void SetupClipMatrix(float fov, float aspectRatio, float near, float far)
    {
        Identity();
        float f = 1.0f / std::tan(fov * 0.5f);
        data[0] = f*aspectRatio;
        data[5] = f;
        data[10] = (far+near) / (far-near);
        data[11] = 1.0f; /* this 'plugs' the old z into w */
        data[14] = (2.0f*near*far) / (near-far);
        data[15] = 0.0f;
    }

    std::vector<float> data;
};

inline Vector operator*(const Vector& v, const Matrix& m)
{
    Vector dst;
    dst.x = v.x*m[0] + v.y*m[4] + v.z*m[8 ] + v.w*m[12];
    dst.y = v.x*m[1] + v.y*m[5] + v.z*m[9 ] + v.w*m[13];
    dst.z = v.x*m[2] + v.y*m[6] + v.z*m[10] + v.w*m[14];
    dst.w = v.x*m[3] + v.y*m[7] + v.z*m[11] + v.w*m[15];
    return dst;
}

typedef std::vector<Vector> VecArr;
VecArr ProjectAndClip(int width, int height, float near, float far, const VecArr& vertex)
{
    float halfWidth = (float)width * 0.5f;
    float halfHeight = (float)height * 0.5f;
    float aspect = (float)width / (float)height;
    Vector v;
    Matrix clipMatrix;
    VecArr dst;
    clipMatrix.SetupClipMatrix(60.0f * (M_PI / 180.0f), aspect, near, far);
    /*  Here, after the perspective divide, you perform Sutherland-Hodgeman clipping 
        by checking if the x, y and z components are inside the range of [-w, w].
        One checks each vector component seperately against each plane. Per-vertex
        data like colours, normals and texture coordinates need to be linearly
        interpolated for clipped edges to reflect the change. If the edge (v0,v1)
        is tested against the positive x plane, and v1 is outside, the interpolant
        becomes: (v1.x - w) / (v1.x - v0.x)
        I skip this stage all together to be brief.
    */
    for(VecArr::iterator i=vertex.begin(); i!=vertex.end(); ++i){
        v = (*i) * clipMatrix;
        v /= v.w; /* Don't get confused here. I assume the divide leaves v.w alone.*/
        dst.push_back(v);
    }

    /* TODO: Clipping here */

    for(VecArr::iterator i=dst.begin(); i!=dst.end(); ++i){
        i->x = (i->x * (float)width) / (2.0f * i->w) + halfWidth;
        i->y = (i->y * (float)height) / (2.0f * i->w) + halfHeight;
    }
    return dst;
}

如果您仍然在考虑这个问题,那么OpenGL规范对于所涉及的数学来说是一个非常好的参考。http://www.devmaster.net/ 的DevMaster论坛也有很多与软件光栅器相关的好文章。


答案 2

我想这可能会回答你的问题。这是我在那里写的:

这是一个非常笼统的答案。假设相机位于(Xc,Yc,Zc),并且要投影的点是P = (X,Y,Z)。从相机到投影到的 2D 平面的距离为 F(因此平面的等式为 Z-Zc=F)。投影到平面上的 P 的 2D 坐标为 (X', Y')。

然后,非常简单:

X' = ((X - Xc) * (F/Z)) + Xc

Y' = ((Y - Yc) * (F/Z)) + Yc

如果您的相机是原点,则简化为:

X' = X * (F/Z)

Y' = Y * (F/Z)


推荐