Spatial Acoustic Projection for 3D Imaging Sonar Reconstruction

要約

本研究では、マルチビームイメージングソナーを用いて3次元表面を再構築する新しい方法を提案する。3次元グリッド内の固定されたセルに対して、異なる視点からソナーで計測された強度を積分する。各セルには、離散化された視点範囲の平均強度を保持する特徴ベクトルを積分する。この特徴ベクトルと、グランドトゥルース情報として機能する独立した疎な距離測定値に基づいて、畳み込みニューラルネットワークを学習させ、各セルの最近接表面までの符号付き距離と方向を予測することを可能にする。予測された符号付き距離は、予測された方向に沿って切断符号付き距離場(TSDF)に投影することができる。マーチングキューブアルゴリズムを利用することで、TSDFからポリゴンメッシュをレンダリングすることができる。本手法は、限られた視点からの高密度な3D再構成を可能にし、3つの実世界のデータセットで評価された。

要約(オリジナル)

In this work we present a novel method for reconstructing 3D surfaces using a multi-beam imaging sonar. We integrate the intensities measured by the sonar from different viewpoints for fixed cell positions in a 3D grid. For each cell we integrate a feature vector that holds the mean intensity for a discretized range of viewpoints. Based on the feature vectors and independent sparse range measurements that act as ground truth information, we train convolutional neural networks that allow us to predict the signed distance and direction to the nearest surface for each cell. The predicted signed distances can be projected into a truncated signed distance field (TSDF) along the predicted directions. Utilizing the marching cubes algorithm, a polygon mesh can be rendered from the TSDF. Our method allows a dense 3D reconstruction from a limited set of viewpoints and was evaluated on three real-world datasets.

arxiv情報

著者 Sascha Arnold,Bilal Wehbe
発行日 2022-06-06 18:24:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.RO パーマリンク