要約
ループの閉鎖はロボットのナビゲーションにおける重要なタスクです。
ただし、既存の方法はほとんどの場合、環境の暗黙的またはヒューリスティックな機能に依存しており、廊下、トンネル、倉庫などの一般的な環境では依然として機能しない可能性があります。
実際、このような特徴のない、変性的で反復的な (FDR) 環境でのナビゲーションは、人間にとってさえ大きな課題となりますが、多くの場合、周囲にある明示的なテキストの手がかりが最良の支援を提供します。
このことから、FDR 環境で人間が判読できる明示的なテキスト キューに基づいたマルチモーダル ループ クロージャー手法を提案するようになりました。
具体的には、私たちのアプローチはまず光学式文字認識 (OCR) に基づいてシーン テキスト エンティティを抽出し、次に正確な LiDAR オドメトリに基づいてテキスト キューのローカル マップを作成し、最後にグラフ理論スキームによってループ クロージャ イベントを識別します。
実験結果は、このアプローチが視覚センサーと LiDAR センサーのみに依存する既存の方法よりも優れたパフォーマンスを備えていることを示しています。
コミュニティに利益をもたらすために、ソース コードとデータセットを \url{https://github.com/TongxingJin/TXTLCD} でリリースします。
要約(オリジナル)
Loop closure is an important task in robot navigation. However, existing methods mostly rely on some implicit or heuristic features of the environment, which can still fail to work in common environments such as corridors, tunnels, and warehouses. Indeed, navigating in such featureless, degenerative, and repetitive (FDR) environments would also pose a significant challenge even for humans, but explicit text cues in the surroundings often provide the best assistance. This inspires us to propose a multi-modal loop closure method based on explicit human-readable textual cues in FDR environments. Specifically, our approach first extracts scene text entities based on Optical Character Recognition (OCR), then creates a local map of text cues based on accurate LiDAR odometry and finally identifies loop closure events by a graph-theoretic scheme. Experiment results demonstrate that this approach has superior performance over existing methods that rely solely on visual and LiDAR sensors. To benefit the community, we release the source code and datasets at \url{https://github.com/TongxingJin/TXTLCD}.
arxiv情報
著者 | Tongxing Jin,Thien-Minh Nguyen,Xinhang Xu,Yizhuo Yang,Shenghai Yuan,Jianping Li,Lihua Xie |
発行日 | 2024-10-21 10:54:38+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google