3d-rendering

    1热度

    1回答

    我正在处理中使用2D深度图像创建3D地图。我使用saveFrame()捕获了图像,但是我很难将这些保存的帧转换为3D。有任何网站或代码我可以通过寻找帮助?任何帮助将非常感激。

    0热度

    1回答

    我想创建一个照片般逼真的静态渲染房间内部。我想知道我对开源渲染器有哪些选择。它不需要快速渲染。起初,我尝试了SketchUp和照片渲染器插件,但它们的代价很高,在我看来,与编程可以完成的工作相比,它笨重,而且功能和质量似乎很难实现。我需要如下能力: 扩散 例如半透明的磨砂玻璃 材料色调 例如有色车窗 思考 镜状:例如具有半反射光滑表面的彩色材料 漫反射例如由点光产生的环境光反射离开墙 阴影 例如产

    0热度

    1回答

    客户在Windows 7 64位计算机上使用maxwell渲染(管理器,监视器和节点)。 当场景呈现完毕以下错误消息出现: -node QObject::connect: No such signal QApplication::messageReceived(const QString&) QIODevice::seek (QTcpSocket): Cannot call seek on

    0热度

    1回答

    我一直在尝试渲染已经使用3ds max创建的场景。我将所有对象导出为obj文件,并使用three.js库在浏览器上渲染场景。对于我尝试使用Cubecamera方法的思考,但它没有给出预期的结果。对于阴影,我尝试了阴影贴图,但我想我没有正确使用它们。我想知道是否可以做任何我想使用的只是three.js和WebGl。如果是的话,请告诉我如何。此外,我知道3ds max软件使用Mental ray渲染器

    0热度

    1回答

    如何在我的iOS应用程序中使用this Mac OS X render library?我知道这可以做,但我不知道如何。我不需要代码示例,但是如果有人能够基本描述我必须做什么来首先获得此运行并在iOS应用程序中显示渲染。

    1热度

    2回答

    我需要渲染3D模型,该模型是型.dae [COLLADA] iOS中的, 我已经搜查,发现几个环节 Wavefront Molecules openscenegraph iSGL3D ,但我不知道他们是否会支持.dae文件。 给iOS开发者有什么框架吗? ,这样它可以非常可靠。 任何人都可以请帮助我这个。 请注意:我是新来的3D渲染,我们可以在iOS中直接呈现.dae文件吗?或者我们是否需要转换为

    0热度

    1回答

    让我们坐我有点云数据,我不知道传感器的位置(它不是[0,0,0])。有没有一种很好的方法来估算原始传感器的位置? 例如,从下面的点云, 点云数据: 发现的观点,使点云看起来像这样(像深度图)因此,有没有(或最少)可以观察到孔。 点云看上去就像观点这张照片,我想找到:

    2热度

    1回答

    3D引擎是否需要分析地图上的每个对象以查看它是否会渲染。我的理解是,线从中心投影的一个像素在视图计划,发动机会发现,与它相交的最接近的计划,但是那不是意味着每个像素的引擎需要在地图上分析所有对象,有没有办法限制分析的对象。 感谢您的帮助。

    0热度

    1回答

    我正在为我的.stl文件生成骨架爬升算法,我正在获取输出。但对于此代码,我需要从命令提示符传递参数我将如何传递参数而无需打开命令提示符?是否有可能将输入传递给gui的这段代码?请给我一些建议....你可以找到从给定链路的完整代码...提前 http://www.cse.cuhk.edu.hk/~ttwong/papers/asc/asc.html 感谢

    2热度

    1回答

    目前我正在使用bablyon.js引擎,目前唯一的主要问题是视野。 视野很浅,它会导致渲染效果不佳。 目前我使用BABYLON.FreeCamera()作为主要的相机附带的控制,这是我使用的格式: var camera1 = new BABYLON.FreeCamera("camera", new BABYLON.Vector3(x,y), scene); 我做了一些环顾四周,从我的搜索似乎指