Active Collaborative Localization in Heterogeneous Robot Teams

要約

ロボットチームの自律ナビゲーションには、正確かつ堅牢な状態推定が不可欠です。
この作業は、知覚が低下した GPS が拒否された環境で動作する、サイズ、重量、および出力 (SWAP) に制約のある大規模なグループの航空機にとって特に困難です。
しかし、より高価だがリソースの制約が少ない少数のエージェントをロボットに追加することで、そのようなロボットが利用できる知覚情報の量を積極的に増やすことができます。
具体的には、後者はそれ自体が知覚情報のソースとして機能します。
この論文では、カメラと IMU のみに依存する必要がある軽量で安価なチームメイトの知覚環境を強化するために、少数のより有能なエージェントを最適に配置 (および潜在的にナビゲーション) する問題を研究します。
我々は、非線形最適化を通じてこの問題を解決するために、数値的に堅牢で計算効率の高いアプローチを提案します。
私たちの方法は、グリーディ アルゴリズムに基づく標準的なアプローチよりも優れたパフォーマンスを発揮し、実行時間の何分の 1 かで全体的な最適化のためのヒューリスティック進化スキームの精度に匹敵します。
最終的には、写真のようにリアルなシミュレーションと現実世界の実験の両方でソリューションを検証します。
これらの実験では、ライダーベースの自律地上車両をより有能なエージェントとして使用し、ビジョンベースの航空機ロボットを SWAP 制約のあるチームメイトとして使用します。
私たちの方法は、視覚慣性オドメトリのドリフトを 90% も削減することができ、LIDAR を装備したエージェントのランダムな位置決めよりも大幅に優れています。
さらに、私たちの方法は、異種の認識能力を持つさまざまなタイプのロボットチームに一般化できます。
これには、困難な動的環境の測量とマッピング、地震や嵐によって引き起こされる可能性のある大規模な摂動に対する回復力の実現など、幅広い用途があります。

要約(オリジナル)

Accurate and robust state estimation is critical for autonomous navigation of robot teams. This task is especially challenging for large groups of size, weight, and power (SWAP) constrained aerial robots operating in perceptually-degraded GPS-denied environments. We can, however, actively increase the amount of perceptual information available to such robots by augmenting them with a small number of more expensive, but less resource-constrained, agents. Specifically, the latter can serve as sources of perceptual information themselves. In this paper, we study the problem of optimally positioning (and potentially navigating) a small number of more capable agents to enhance the perceptual environment for their lightweight,inexpensive, teammates that only need to rely on cameras and IMUs. We propose a numerically robust, computationally efficient approach to solve this problem via nonlinear optimization. Our method outperforms the standard approach based on the greedy algorithm, while matching the accuracy of a heuristic evolutionary scheme for global optimization at a fraction of its running time. Ultimately, we validate our solution in both photorealistic simulations and real-world experiments. In these experiments, we use lidar-based autonomous ground vehicles as the more capable agents, and vision-based aerial robots as their SWAP-constrained teammates. Our method is able to reduce drift in visual-inertial odometry by as much as 90%, and it outperforms random positioning of lidar-equipped agents by a significant margin. Furthermore, our method can be generalized to different types of robot teams with heterogeneous perception capabilities. It has a wide range of applications, such as surveying and mapping challenging dynamic environments, and enabling resilience to large-scale perturbations that can be caused by earthquakes or storms.

arxiv情報

著者 Igor Spasojevic,Xu Liu,Alejandro Ribeiro,George J. Pappas,Vijay Kumar
発行日 2023-05-29 16:44:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク