Mesh Conflation of Oblique Photogrammetric Models using Virtual Cameras and Truncated Signed Distance Field

要約

2.5D ラスター デジタル サーフェス モデル (DSM) を大きなモデルに統合/ステッチすることは、地球科学アプリケーションではよく行われていますが、斜め写真測量などのフル 3D メッシュ モデルを統合することは非常に困難です。
このレターでは、複数のフル 3D 斜め写真測量モデルを単一のシームレス メッシュに統合し、高解像度のサイト モデリングを実現することで、この課題に対処する新しいアプローチを提案します。
2 つ以上の個別に収集および作成された写真測量メッシュが与えられた場合、最初に仮想カメラ フィールド (パノラマの視野を持つ) を作成して、線形 3D に適した暗黙的な体積フィールドである Truncated Signed Distance Field (TSDF) で表される仮想空間をインキュベートすることを提案します。
融合;
次に、TSDF のメッシュの切り詰められた境界を適応的に利用して、それらを単一の正確な完全な 3D サイト モデルに統合します。
ドローンベースの 3D メッシュを使用することで、私たちのアプローチがモデル結合の従来の方法を大幅に改善し、地球科学および環境アプリケーションをサポートする非常に大規模で正確なフル 3D メッシュ モデルを作成する新たな可能性を推進することを示します。

要約(オリジナル)

Conflating/stitching 2.5D raster digital surface models (DSM) into a large one has been a running practice in geoscience applications, however, conflating full-3D mesh models, such as those from oblique photogrammetry, is extremely challenging. In this letter, we propose a novel approach to address this challenge by conflating multiple full-3D oblique photogrammetric models into a single, and seamless mesh for high-resolution site modeling. Given two or more individually collected and created photogrammetric meshes, we first propose to create a virtual camera field (with a panoramic field of view) to incubate virtual spaces represented by Truncated Signed Distance Field (TSDF), an implicit volumetric field friendly for linear 3D fusion; then we adaptively leverage the truncated bound of meshes in TSDF to conflate them into a single and accurate full 3D site model. With drone-based 3D meshes, we show that our approach significantly improves upon traditional methods for model conflations, to drive new potentials to create excessively large and accurate full 3D mesh models in support of geoscience and environmental applications.

arxiv情報

著者 Shuang Song,Rongjun Qin
発行日 2023-08-23 13:54:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク