要約
推論的意思決定アルゴリズムは通常、意思決定の選択肢と結果の基礎となる確率モデルがアプリオリまたはオンラインで学習できることを前提としています。
さらに、現実世界の設定でロボットに適用すると、この前提が破られたり、予期せぬ外部からの圧力や制約を受けたりするため、ロボットは満足のいくパフォーマンスを発揮できなかったり、必要なタスクを達成できなかったりすることがよくあります。
この論文および他の論文で発表された認知研究は、人間が、おそらく冗長である可能性のある利用可能な環境手がかりの情報価値を活用することによって、ヒューリスティックを含む最適に近い解決策と満足のいく解決策の間で調整することによって、複雑で未知の状況に対処していることを示しています。
この論文は、「宝探し」として知られるベンチマーク推論決定問題を使用して、圧力下での能動的な知覚ソリューションを調査およびモデル化するための一般的なアプローチを開発します。
仮想世界で宝探しの問題をシミュレートすることで、私たちのアプローチは、優秀な人材から一般化可能な戦略を学習し、ロボットに適用すると、外部圧力や確率モデル(利用可能な場合)に基づいて、最適なソリューションとヒューリスティックなソリューションの間で調整できるようになります。
その結果、高忠実度の数値シミュレーションと物理実験の両方において、細胞分解、情報ロードマップ、および情報ポテンシャルアルゴリズムによって得られる宝探しソリューションを上回る、カメラ搭載ロボット用の一連の能動認識アルゴリズムが実現しました。
新しいアクティブ知覚戦略の有効性は、モデル化されていない時間の制約、リソースの制約、悪天候 (霧) など、既存のアルゴリズムが宝物の探索を完了できない原因となるさまざまな予期せぬ条件下で実証されます。
要約(オリジナル)
Inferential decision-making algorithms typically assume that an underlying probabilistic model of decision alternatives and outcomes may be learned a priori or online. Furthermore, when applied to robots in real-world settings they often perform unsatisfactorily or fail to accomplish the necessary tasks because this assumption is violated and/or they experience unanticipated external pressures and constraints. Cognitive studies presented in this and other papers show that humans cope with complex and unknown settings by modulating between near-optimal and satisficing solutions, including heuristics, by leveraging information value of available environmental cues that are possibly redundant. Using the benchmark inferential decision problem known as “treasure hunt’, this paper develops a general approach for investigating and modeling active perception solutions under pressure. By simulating treasure hunt problems in virtual worlds, our approach learns generalizable strategies from high performers that, when applied to robots, allow them to modulate between optimal and heuristic solutions on the basis of external pressures and probabilistic models, if and when available. The result is a suite of active perception algorithms for camera-equipped robots that outperform treasure-hunt solutions obtained via cell decomposition, information roadmap, and information potential algorithms, in both high-fidelity numerical simulations and physical experiments. The effectiveness of the new active perception strategies is demonstrated under a broad range of unanticipated conditions that cause existing algorithms to fail to complete the search for treasures, such as unmodelled time constraints, resource constraints, and adverse weather (fog).
arxiv情報
著者 | Yucheng Chen,Pingping Zhu,Anthony Alers,Tobias Egner,Marc A. Sommer,Silvia Ferrari |
発行日 | 2023-09-14 13:53:54+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google