要約
人間は、人間の行動に特有の複雑さと不確実性にもかかわらず、混雑したナビゲーションタスクにおいて共同衝突回避にスムーズに取り組む驚くべき能力を持っています。
これらの相互作用の根底にあるのは、(i) 個人は向社会的である、つまり、衝突を避けるために公平な責任がある、そして (ii) 個人はわかりやすく行動する、つまり、あいまいさを減らすという意図を明確に伝える方法で動くべきである、という相互理解です。
彼らが他人をどのように避けようとするかという点で。
人間と安全かつシームレスに対話できるロボットの構築に向けて、読みやすく積極的な行動を合成するための一般的なロボットの軌道計画フレームワークを提案し、ロボット プランナーが自然に向社会的な対話につながることを実証します。
具体的には、読みやすく積極的な行動を奨励するためのマークアップ要素の概念と、公平な衝突回避責任を確保するための不便予算の制約を導入します。
私たちは、確立されたマルチエージェント計画アルゴリズムに対して私たちのアプローチを評価し、私たちのアプローチを使用すると、安全で、流暢で、向社会的な相互作用が生成されることを示します。
人間参加型シミュレーションを使用して、アプローチのリアルタイムの実現可能性を実証します。
プロジェクトページは https://uw-ctrl.github.io/phri/ にあります。
要約(オリジナル)
Humans have a remarkable ability to fluently engage in joint collision avoidance in crowded navigation tasks despite the complexities and uncertainties inherent in human behavior. Underlying these interactions is a mutual understanding that (i) individuals are prosocial, that is, there is equitable responsibility in avoiding collisions, and (ii) individuals should behave legibly, that is, move in a way that clearly conveys their intent to reduce ambiguity in how they intend to avoid others. Toward building robots that can safely and seamlessly interact with humans, we propose a general robot trajectory planning framework for synthesizing legible and proactive behaviors and demonstrate that our robot planner naturally leads to prosocial interactions. Specifically, we introduce the notion of a markup factor to incentivize legible and proactive behaviors and an inconvenience budget constraint to ensure equitable collision avoidance responsibility. We evaluate our approach against well-established multi-agent planning algorithms and show that using our approach produces safe, fluent, and prosocial interactions. We demonstrate the real-time feasibility of our approach with human-in-the-loop simulations. Project page can be found at https://uw-ctrl.github.io/phri/.
arxiv情報
著者 | Jasper Geldenbott,Karen Leung |
発行日 | 2024-04-04 18:03:39+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google