要約
この論文では、移動ロボットの特徴ベースの視覚ナビゲーションにおける障害回避を追跡するための、焦点線と特徴に制約されたアクティブ ビュー プランニング手法である FLAF を紹介します。
当社の FLAF ベースのビジュアル ナビゲーションは、機能ベースのビジュアル ティーチ アンド リピート (VT\&R) フレームワークに基づいて構築されており、日常の自律ナビゲーション要件の重要な部分をカバーするさまざまなパスをナビゲートするようにロボットに学習させることで、多くのロボット アプリケーションをサポートします。
しかし、人為的な環境におけるテクスチャのない領域によって引き起こされる、特徴ベースの視覚的同時位置特定およびマッピング (VSLAM) における追跡障害は、現実世界での VT&R の採用を依然として制限しています。
この問題に対処するために、提案されたビュー プランナーは機能ベースのビジュアル SLAM システムに統合され、追跡の失敗を回避するアクティブな VT/&R システムを構築します。
私たちのシステムでは、パンチルト ユニット (PTU) ベースのアクティブ カメラが移動ロボットに取り付けられています。
FLAF を使用するアクティブ カメラ ベースの VSLAM は、ティーチング フェーズでは完全なパス マップを構築し、繰り返しフェーズでは安定した位置特定を維持するために動作します。
FLAF は、ロボットをより多くのマップ ポイントに向けて経路学習中のマッピングの失敗を回避し、学習された軌道をたどる際の位置特定に有益なより多くの特徴識別可能なマップ ポイントに向けます。
実際のシナリオでの実験では、FLAF が特徴の識別可能性を考慮しない方法よりも優れたパフォーマンスを示し、アクティブ VT&R システムは低テクスチャ領域を効果的に処理することで複雑な環境でも良好にパフォーマンスを発揮することが実証されています。
要約(オリジナル)
This paper presents FLAF, a focal line and feature-constrained active view planning method for tracking failure avoidance in feature-based visual navigation of mobile robots. Our FLAF-based visual navigation is built upon a feature-based visual teach and repeat (VT\&R) framework, which supports many robotic applications by teaching a robot to navigate on various paths that cover a significant portion of daily autonomous navigation requirements. However, tracking failure in feature-based visual simultaneous localization and mapping (VSLAM) caused by textureless regions in human-made environments is still limiting VT\&R to be adopted in the real world. To address this problem, the proposed view planner is integrated into a feature-based visual SLAM system to build up an active VT\&R system that avoids tracking failure. In our system, a pan-tilt unit (PTU)-based active camera is mounted on the mobile robot. Using FLAF, the active camera-based VSLAM operates during the teaching phase to construct a complete path map and in the repeat phase to maintain stable localization. FLAF orients the robot toward more map points to avoid mapping failures during path learning and toward more feature-identifiable map points beneficial for localization while following the learned trajectory. Experiments in real scenarios demonstrate that FLAF outperforms the methods that do not consider feature-identifiability, and our active VT\&R system performs well in complex environments by effectively dealing with low-texture regions.
arxiv情報
著者 | Changfei Fu,Weinan Chen,Wenjun Xu,Hong Zhang |
発行日 | 2024-09-08 06:01:43+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google