要約
水中洞窟は、水資源管理や水文地質学や歴史の理解にとって極めて重要な困難な環境です。
水中洞窟のマッピングは、時間と労力がかかり、危険を伴う作業です。
水中ロボットによる自律的な洞窟マッピングの場合、主な課題は周囲光がまったくない状態での視覚ベースの推定にあり、その結果、カメラと光のセットアップの動きにより常に影が移動します。
したがって、自律的な洞窟マッピングミッションでは、ナビゲーションガイダンスとして洞窟を検出して追跡することがロボットにとって最も重要です。
この論文では、新しいビジョン トランスフォーマー (ViT) ベースの学習パイプラインに基づいた、計算的に軽い洞窟検出モデルを紹介します。
私たちは、中間の準最適モデルからの一連のノイズの多い予測を通じて学習を強化する弱い教師あり定式化によって、注釈付きトレーニング データが不足しているという問題に対処します。
私たちは、米国、メキシコ、スペインの 3 つの異なる洞窟の場所で洞窟の検出と追跡に対するこのような弱い監視の有用性と有効性を検証します。
実験結果は、私たちが提案したモデル CL-ViT が堅牢性と効率のトレードオフのバランスをとっており、シングルボード (Jetson TX2) デバイスで 10+ FPS を提供しながら良好な汎化パフォーマンスを確保していることを示しています。
要約(オリジナル)
Underwater caves are challenging environments that are crucial for water resource management, and for our understanding of hydro-geology and history. Mapping underwater caves is a time-consuming, labor-intensive, and hazardous operation. For autonomous cave mapping by underwater robots, the major challenge lies in vision-based estimation in the complete absence of ambient light, which results in constantly moving shadows due to the motion of the camera-light setup. Thus, detecting and following the caveline as navigation guidance is paramount for robots in autonomous cave mapping missions. In this paper, we present a computationally light caveline detection model based on a novel Vision Transformer (ViT)-based learning pipeline. We address the problem of scarce annotated training data by a weakly supervised formulation where the learning is reinforced through a series of noisy predictions from intermediate sub-optimal models. We validate the utility and effectiveness of such weak supervision for caveline detection and tracking in three different cave locations: USA, Mexico, and Spain. Experimental results demonstrate that our proposed model, CL-ViT, balances the robustness-efficiency trade-off, ensuring good generalization performance while offering 10+ FPS on single-board (Jetson TX2) devices.
arxiv情報
著者 | Boxiao Yu,Reagan Tibbetts,Titon Barua,Ailani Morales,Ioannis Rekleitis,Md Jahidul Islam |
発行日 | 2023-06-28 14:54:41+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google