要約
この論文では、学習された特徴を使用したソナー画像対応のための新しい方法を通じて、水中 SLAM のデータ関連付けという困難な問題に取り組みます。
SONIC (SONar Image Correspondence) を紹介します。これは、視点の変化に耐えることができる堅牢な特徴対応を生成するように設計された姿勢監視ネットワークです。
水中環境の本質的な複雑さは、動的でしばしば視界が制限される状況に起因しており、視界が数メートル先の特徴のない広がりに制限されることもよくあります。
このため、カメラベースのシステムは、ほとんどのオープンウォーターアプリケーションシナリオでは最適とは言えません。
その結果、マルチビームイメージングソナーが知覚センサーの好ましい選択肢として浮上しています。
ただし、それらにも限界がないわけではありません。
イメージングソナーはカメラに比べて長距離の視認性に優れていますが、視点が異なると測定結果が異なって見える場合があります。
この固有の変動性は、データ関連付けにおいて、特に特徴ベースの手法において、大きな課題をもたらします。
私たちの方法は、ソナー画像の対応関係を生成する際のパフォーマンスが大幅に向上していることを示しており、これにより、より正確なループ閉鎖制約とソナーベースの場所認識への道が開かれます。
この分野でのさらなる開発を促進するために、コードとシミュレートされた現実世界のデータセットが公開されます。
要約(オリジナル)
In this paper, we address the challenging problem of data association for underwater SLAM through a novel method for sonar image correspondence using learned features. We introduce SONIC (SONar Image Correspondence), a pose-supervised network designed to yield robust feature correspondence capable of withstanding viewpoint variations. The inherent complexity of the underwater environment stems from the dynamic and frequently limited visibility conditions, restricting vision to a few meters of often featureless expanses. This makes camera-based systems suboptimal in most open water application scenarios. Consequently, multibeam imaging sonars emerge as the preferred choice for perception sensors. However, they too are not without their limitations. While imaging sonars offer superior long-range visibility compared to cameras, their measurements can appear different from varying viewpoints. This inherent variability presents formidable challenges in data association, particularly for feature-based methods. Our method demonstrates significantly better performance in generating correspondences for sonar images which will pave the way for more accurate loop closure constraints and sonar-based place recognition. Code as well as simulated and real-world datasets will be made public to facilitate further development in the field.
arxiv情報
著者 | Samiran Gode,Akshay Hinduja,Michael Kaess |
発行日 | 2023-10-23 15:21:46+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google