Active Visual Localization for Multi-Agent Collaboration: A Data-Driven Approach

要約

新たに導入された各ロボットに周囲の独自のマップを作成させるのではなく、SLAM 対応デバイスの利用可能性の向上により、別のロボットまたはデバイスのマップ内で単純に位置を特定するオプションが提供されます。
マルチロボットまたは人間とロボットのコラボレーションなどの場合、すべてのエージェントを同じマップ内にローカライズすることが必要になることさえあります。
ただし、ローカライズなど
ドローンやヘッドマウント型 MR ヘッドセットのマップ内の地上ロボットには、視点の変更による特有の課題が生じます。
この研究では、視点変更のこのような課題を克服するためにアクティブな視覚的位置特定をどのように使用できるかを調査します。
具体的には、特定の場所で最適な視点を選択する問題に焦点を当てます。
文献にある既存のアプローチを追加の提案されたベースラインと比較し、新しいデータ駆動型アプローチを提案します。
この結果は、制御されたシミュレーション実験と現実世界の展開の両方において、既存の手法と比較した場合、データ駆動型アプローチの優れたパフォーマンスを示しています。

要約(オリジナル)

Rather than having each newly deployed robot create its own map of its surroundings, the growing availability of SLAM-enabled devices provides the option of simply localizing in a map of another robot or device. In cases such as multi-robot or human-robot collaboration, localizing all agents in the same map is even necessary. However, localizing e.g. a ground robot in the map of a drone or head-mounted MR headset presents unique challenges due to viewpoint changes. This work investigates how active visual localization can be used to overcome such challenges of viewpoint changes. Specifically, we focus on the problem of selecting the optimal viewpoint at a given location. We compare existing approaches in the literature with additional proposed baselines and propose a novel data-driven approach. The result demonstrates the superior performance of the data-driven approach when compared to existing methods, both in controlled simulation experiments and real-world deployment.

arxiv情報

著者 Matthew Hanlon,Boyang Sun,Marc Pollefeys,Hermann Blum
発行日 2024-05-08 20:48:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク