Evidential Active Recognition: Intelligent and Prudent Open-World Embodied Perception

要約

能動認識により、ロボットは新たな観察をインテリジェントに探索できるため、望ましくない観察条件を回避しながらより多くの情報を取得できます。
最近のアプローチでは、シミュレーションまたは収集されたデータからの学習ポリシーが好まれており、認識が正確であれば、適切なアクションがより頻繁に選択されます。
ただし、ほとんどの認識モジュールは閉世界の前提に基づいて開発されているため、現在の観測に対象物体が存在しないなど、予期しない入力を処理する能力が不十分です。
この問題に対処するために、我々は、積極的な認識を逐次的な証拠収集プロセスとして扱い、証拠組み合わせ理論に基づいて段階ごとの不確実性の定量化と信頼性の高い予測を提供することを提案します。
さらに、この論文で開発された報酬関数は、オープンワールド環境で動作する場合のアクションのメリットを効果的に特徴付けます。
パフォーマンスを評価するために、距離、オクルージョン レベル、可視性などのさまざまな認識課題を含むデータセットを屋内シミュレーターから収集します。
認識とロバストネス分析に関する一連の実験を通じて、能動的な認識に不確実性を導入する必要性と、提案された方法の優れたパフォーマンスを実証します。

要約(オリジナル)

Active recognition enables robots to intelligently explore novel observations, thereby acquiring more information while circumventing undesired viewing conditions. Recent approaches favor learning policies from simulated or collected data, wherein appropriate actions are more frequently selected when the recognition is accurate. However, most recognition modules are developed under the closed-world assumption, which makes them ill-equipped to handle unexpected inputs, such as the absence of the target object in the current observation. To address this issue, we propose treating active recognition as a sequential evidence-gathering process, providing by-step uncertainty quantification and reliable prediction under the evidence combination theory. Additionally, the reward function developed in this paper effectively characterizes the merit of actions when operating in open-world environments. To evaluate the performance, we collect a dataset from an indoor simulator, encompassing various recognition challenges such as distance, occlusion levels, and visibility. Through a series of experiments on recognition and robustness analysis, we demonstrate the necessity of introducing uncertainties to active recognition and the superior performance of the proposed method.

arxiv情報

著者 Lei Fan,Mingfu Liang,Yunxuan Li,Gang Hua,Ying Wu
発行日 2023-11-23 03:51:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク