要約
具現化されたAIアプリケーションの台頭により、ロボットは高度な環境理解を必要とする複雑なタスクを実行できるようになった。このような環境においてロボットの操作を成功させるためには、地図は幾何学的情報に加えて意味的情報を含むように構築されなければならない。本論文では、移動ロボットが自律的に環境を探索し、その構造と特徴の意味的外観の両方を完全にマッピングする必要があるという、意味的探索という新しい問題に取り組む。我々は、潜在的なポーズがそのポーズから見える意味的特徴に基づいてスコア化される、ネクストベストビュー探索に基づく方法を開発する。潜在的なビューをサンプリングするための2つの代替方法を探索し、シミュレーションと物理実験の両方で我々のフレームワークの有効性を実証する。高品質なセマンティックマップの自動作成は、ロボットがより良く環境を理解し対話することを可能にし、将来の具現化AIアプリケーションをより容易に展開することを可能にする。
要約(オリジナル)
The rise of embodied AI applications has enabled robots to perform complex tasks which require a sophisticated understanding of their environment. To enable successful robot operation in such settings, maps must be constructed so that they include semantic information, in addition to geometric information. In this paper, we address the novel problem of semantic exploration, whereby a mobile robot must autonomously explore an environment to fully map both its structure and the semantic appearance of features. We develop a method based on next-best-view exploration, where potential poses are scored based on the semantic features visible from that pose. We explore two alternative methods for sampling potential views and demonstrate the effectiveness of our framework in both simulation and physical experiments. Automatic creation of high-quality semantic maps can enable robots to better understand and interact with their environments and enable future embodied AI applications to be more easily deployed.
arxiv情報
著者 | Cody Simons,Aritra Samanta,Amit K. Roy-Chowdhury,Konstantinos Karydis |
発行日 | 2025-04-04 17:46:45+00:00 |
arxivサイト | arxiv_id(pdf) |