7
由于在OpenGL中使用几何着色器进行分层渲染在某些驱动程序/硬件上看起来有点不礼貌,所以我想用我自己的解决方案替换功能。这通过使用大纹理作为rendertarget,例如300的分辨率。然后通过在纹理中渲染100个块来模拟分层渲染。与分辨率这将导致9瓦/层如下面的样机:渲染为纹理的一部分
的问题是;如何与OpenGL的这个?据说在几何着色器的帮助下,一次渲染场景到不同的瓷砖。
由于在OpenGL中使用几何着色器进行分层渲染在某些驱动程序/硬件上看起来有点不礼貌,所以我想用我自己的解决方案替换功能。这通过使用大纹理作为rendertarget,例如300的分辨率。然后通过在纹理中渲染100个块来模拟分层渲染。与分辨率这将导致9瓦/层如下面的样机:渲染为纹理的一部分
的问题是;如何与OpenGL的这个?据说在几何着色器的帮助下,一次渲染场景到不同的瓷砖。
有没有简单的方法来做到这一点。您可以使用几何着色器将它一起破解,但它很可能会很慢,因为您必须执行大量几何实例化,然后使用几何着色器进行顶点着色,因为顶点着色器不在游戏中。
基本解决问题的方法:
谢谢你的回答。也许我应该等待GPU制造商把他们的驱动程序集合起来(ATI)。所以他们支持将渲染图层替换为'texture2Darray'。 – 2010-11-21 12:00:01
是的,绝对。问题是,如果ATI能够让他们的驱动程序正常工作...... – 2010-11-21 12:19:23