在用谷歌3D城市点云模型的算法中,我们来到了合成点云这一块,这里跟大家说说合成点云的方法吧。
合成点云
利用Google Street View API提供的不同地址间的链接,我们得到了相信全景图片的标识点和地理信息。
所以,我们现在可以以新的地点坐标重复之前的步骤,用全景图片创造3D场景并能够丰富此前我们用个点创建的场景,或者重建一个真实世界的场景。
我们这个项目来说,会使用两个界限:两个全景图片间的最短距离以及深度信息的重复。
可以将第一个载入的全景图片想象成一个数的根部,然后以一种广度优先的方式(breadth-first)进行探索。
平均来说,我们注意到谷歌的深度地图通常包含现实世界的200-300米的距离,所以我们决定以1:1的比例来重建场景。
我们将第一个点云的中心坐标设为(0,0,0),然后我们根据真实世界到全景位置的距离,按照offset proportional来加入其他的数据。
利用一些几何和近似值,我们可以用这样一个算法来计算[x,z]平面的distance vector:
除了这个转化,这个点云需要根据从谷歌街景中提取的Heading特定信息来沿着垂直Y轴来旋转,然后才得到了一个近似于如图的效果。
累计评论0条
展开其余评论