要約
人間とロボットの共同作業では、人間の目的がロボットにはわからないことがよくあります。
さらに、既知の目的を仮定しても、人間の行動も不確実です。
堅牢なロボットの動作を計画するための重要な予備的質問は、次のとおりです。
主な問題は、そのような人間の行動自体がロボットの行動を説明する必要があるということです。そうでなければ、コラボレーションは起こりません。
この論文では、マルコフ決定モデルに依存し、人間の目的に対する不確実性を、目的関数の有限セットに対する確率分布として表します (人間の行動に対する分布を誘導します)。
これに基づいて、2 つの貢献を提案します。1) 可能なロボットの動作を考慮しながら、与えられた目的関数ごとに不確実な人間の動作 (ポリシー) を自動的に生成するアプローチ。
2) 上記の不確実性に対してロバストであり、人間の行動に対する分布を推論することによって得られる部分観測マルコフ決定過程 (POMDP) の解決に依存するロボット計画アルゴリズム。
コワーキング シナリオでは、実験を実施し、定性的および定量的な結果を提示して、私たちのアプローチを評価することができます。
要約(オリジナル)
In human-robot collaboration, the objectives of the human are often unknown to the robot. Moreover, even assuming a known objective, the human behavior is also uncertain. In order to plan a robust robot behavior, a key preliminary question is then: How to derive realistic human behaviors given a known objective? A major issue is that such a human behavior should itself account for the robot behavior, otherwise collaboration cannot happen. In this paper, we rely on Markov decision models, representing the uncertainty over the human objective as a probability distribution over a finite set of objective functions (inducing a distribution over human behaviors). Based on this, we propose two contributions: 1) an approach to automatically generate an uncertain human behavior (a policy) for each given objective function while accounting for possible robot behaviors; and 2) a robot planning algorithm that is robust to the above-mentioned uncertainties and relies on solving a partially observable Markov decision process (POMDP) obtained by reasoning on a distribution over human behaviors. A co-working scenario allows conducting experiments and presenting qualitative and quantitative results to evaluate our approach.
arxiv情報
著者 | Yang You,Vincent Thomas,Francis Colas,Rachid Alami,Olivier Buffet |
発行日 | 2023-02-27 16:02:48+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google