projective-geometry

    0热度

    1回答

    最近我一直在研究图像处理的几何。我试图完成的是: 想象一下,有两个场景图片。我想将第二张图片转换为第一张图片。我想回复第一张作为参考的第二张照片的视角。 但是,我的问题是关于空间。我已经知道,透视变换是一种投影变换,映射平面是欧几里得的特例。 我想问一下图像平面是否是欧几里德?我会认为它具有齐次坐标,因为当我使用open cv执行转换时,我会使用x向量,如(x,y,1)。我对欧几里德和投影空间的定

    4热度

    1回答

    我有一个旋转 - 平移矩阵[R T](3x4)。 opencv中是否有执行[R T]描述的旋转转换的函数?

    0热度

    1回答

    我有部分世界地图(如美国或非洲)。我需要知道基于部分/裁剪地图像素大小的大小的世界地图的像素大小。 我有尺寸在部分地图的像素(像480x256),并且我有minLongitude,maxlongitude,minlatitude,maxlatitude(又名左,右,顶部,底部边缘) 我知道经度是容易的,因为线性的: FULL_CIRCLE_DEG = 360 longitudeDelta = (m

    2热度

    1回答

    我有从任意相机角度拍摄的棋盘的照片。我发现两个消失点对应于构成棋盘格的两组线。从这两个消失点,我计算从棋盘平面到图像平面的单应性。 然后,我应用逆单应从顶视图重新渲染棋盘。但是,对于某些图像,重新渲染的顶视图非常大。也就是说,由于摄像机角度,逆单应矩阵将图像的某些部分(即图像中非常接近消失点之一的区域)拉伸得非常大。 这占用了不必要的大量内存,并且高度拉伸的大部分区域是我不需要的东西。所以,在应用

    0热度

    3回答

    我需要找到从两个不同相机捕获的同一场景的两幅图像中提取的两组独立特征之间的匹配。 我使用的是HumanEvaI数据集,因此我有相机的校准矩阵(在这种情况下为BW1和BW2)。 我不能使用像简单相关,SIFT或SURF这样的方法来解决这个问题,因为这些相机距离彼此很远并且也是旋转的。所以图像之间的差异很大,并且也存在遮挡。 我一直专注于根据基于我已经拥有的校准信息已经能够构建的地面实况点匹配的捕获图

    1热度

    1回答

    我有一个图片 ,我想通过把它放回这样得到射影变换: ,但唯一的结果,我可以看到是这样的: 我找不到我的错误。我的代码(A - 图片我想变换): p=0.25; a=p*rows(A); U = @(m, n) ([1 1; 1 m; n 1; n m]); V = @(m, n) ([1+a 1+a; 1-a m-a; n-a 1+a; n+a m-a]); D=transform(

    0热度

    1回答

    我想在我的OpenGL场景中跟踪被建模为高度图的世界地面上的鼠标坐标。目前没有像硬件镶嵌那样的花哨的东西。请注意,这个问题是不是约对象采摘。 目前我在做这显然是因为下降一回读操作的性能如下: 渲染世界(地面) 在回读的深度值鼠标坐标 渲染场景的其余 交换缓冲区和渲染下一帧 回读介于两个渲染步骤之间,因为我需要地面的深度值,前面没有任何物体。它使用以下命令完成: GLfloat depth; gl

    0热度

    3回答

    所以问题是我有一个矩形的3D投影,我想变成2D。那是我有一张放在桌子上的一张纸的照片,我想转换成该张纸的二维视图。所以我需要的是通过恢复所有3D /投影转换并从顶部获得平面视图来获得未失真的2D图像。我碰巧找到了关于这个问题的一些方向,但他们并没有建议如何实现这一目标的直接指示。逐步指导需要完成的工作将非常有帮助。或者,也可以指向资源的链接,将其分解为一些细节。

    5热度

    1回答

    我从相同的两个相机拍摄的两幅图像相距一定距离,捕捉相同的场景。我想计算两台相机之间的真实世界旋转和平移。为了达到这个目的,我首先提取了两幅图像的SIFT特征并匹配它们。 我现在有基本矩阵以及单应矩阵。但无法进一步进行,很多困惑。谁能帮我估计旋转和翻译在两个摄像头之间? 我使用OpenCV进行特征提取和匹配单应计算。

    24热度

    3回答

    我有两个从不同位置拍摄的图像。第二台摄像机位于右侧,相对于第一台摄像机位于上方和后方。 所以我认为这两个视图之间存在透视变换,而不仅仅是仿射变换,因为相机处于相对不同的深度。(我是对的)我在两幅图像之间有几个对应点。我想用这些对应点来确定每个像素从第1个图像到第2个图像的转换。 我很困惑的功能findFundamentalMat和findHomography .... 都返回3x3矩阵,两者的区别