You Only Crash Once v2: Perceptually Consistent Strong Features for One-Stage Domain Adaptive Detection of Space Terrain

要約

惑星、月、および小体の表面地形の現場検出は、学習ベースのコンピュータービジョン方法がますます採用され、事前の情報や人間の介入なしにインテリジェンスを有効にするためにますます採用されています。
ただし、これらの方法の多くは、宇宙船プロセッサの場合は計算上高価であり、リアルタイムの操作を防ぎます。
このようなアルゴリズムのトレーニングは、ラベル付きのデータが不足しているため、監督された学習アプローチに依存しているため、さらに複雑です。
監視されていないドメイン適応(UDA)は、シミュレーションや合成シーンなどの異なるデータソースを使用してモデルトレーニングを促進することにより有望なソリューションを提供しますが、UDAは挑戦的な機能スペースが最重要である天体環境に適用することは困難です。
そのような問題を軽減するために、あなたは一度だけ(YOCOV1)クラッシュして、視覚的類似性ベースのアライメント(VSA)の軽量の1段階オブジェクト検出アーキテクチャへの統合を研究して、宇宙地形UDAを改善します。
実証されていますが、このアプローチは、マルチクラスおよび高高度のシナリオでのパフォーマンスの劣化など、顕著な制限に直面しています。
YoCov1の基礎を築くと、UDAの下での地形検出機能を強化するVSAスキームへの新しい追加を提案し、私たちのアプローチはシミュレートされたデータと実際のデータの両方で評価されます。
2回目のYocoレンディションであるYocov2は、YoCov1および陸生の最先端と比較して31%以上の改善を紹介する表面地形検出で最先端のUDAパフォーマンスを達成できます。
宇宙船の飛行ハードウェアパフォーマンスベンチマークとNASAミッションデータの定性的評価を備えたYoCov2の実用的なユーティリティを実証します。

要約(オリジナル)

The in-situ detection of planetary, lunar, and small-body surface terrain is crucial for autonomous spacecraft applications, where learning-based computer vision methods are increasingly employed to enable intelligence without prior information or human intervention. However, many of these methods remain computationally expensive for spacecraft processors and prevent real-time operation. Training of such algorithms is additionally complex due to the scarcity of labeled data and reliance on supervised learning approaches. Unsupervised Domain Adaptation (UDA) offers a promising solution by facilitating model training with disparate data sources such as simulations or synthetic scenes, although UDA is difficult to apply to celestial environments where challenging feature spaces are paramount. To alleviate such issues, You Only Crash Once (YOCOv1) has studied the integration of Visual Similarity-based Alignment (VSA) into lightweight one-stage object detection architectures to improve space terrain UDA. Although proven effective, the approach faces notable limitations, including performance degradations in multi-class and high-altitude scenarios. Building upon the foundation of YOCOv1, we propose novel additions to the VSA scheme that enhance terrain detection capabilities under UDA, and our approach is evaluated across both simulated and real-world data. Our second YOCO rendition, YOCOv2, is capable of achieving state-of-the-art UDA performance on surface terrain detection, where we showcase improvements upwards of 31% compared with YOCOv1 and terrestrial state-of-the-art. We demonstrate the practical utility of YOCOv2 with spacecraft flight hardware performance benchmarking and qualitative evaluation of NASA mission data.

arxiv情報

著者 Timothy Chase Jr,Christopher Wilson,Karthik Dantu
発行日 2025-01-23 14:58:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG, cs.RO パーマリンク