Robot Navigation in Risky, Crowded Environments: Understanding Human Preferences

要約

危険で混雑した環境 (RCE) には、リスクと不確実性の抽象的な原因が含まれており、それらは人間によって異なる方法で認識され、さまざまな行動につながります。
したがって、RCE に配備されたロボットは、他の人間のエージェントの行動を解釈し、そのような環境でそれに応じて行動するために、多様な認識および計画能力を示す必要があります。
この問題領域を理解するために、RCE における人間の経路選択を調査する調査を実施し、より優れたロボティック ナビゲーションによる説明可能な AI (XAI) 設計を可能にしました。
時間とリスクのトレードオフがあり、ユーザーの経路の好みを取得する、新しい COVID-19 パンデミックの食料品の買い物シナリオを作成しました。
参加者は、危険で緊急なものから安全でリラックスしたものまで、さまざまな経路の好みを示していることがわかりました。
ユーザーの意思決定をモデル化するために、3 つの一般的なリスク モデル (累積見通し理論 (CPT)、条件付きバリュー アット リスク (CVAR)、および期待リスク (ER) を評価しました。CPT は、CVaR や ER よりも人々の意思決定をより正確に捉えていることがわかりました。
, CPTはCVaRやERよりも表現力があり包括的であるという理論的結果を裏付けています. また、リスクと時間の緊急性に関する人々の自己評価は、RCEでのパスの好みと相関しないこともわかりました. 最後に、自由回答形式の質問のテーマ分析を実施しました.
, ロボットに重要な設計洞察を提供するのはRCEです. したがって、この研究を通じて、RCEでより優れたナビゲーション説明可能なAI (XAI) を設計するのに役立つ、人間の行動と知覚に関する斬新で重要な洞察を提供します.

要約(オリジナル)

Risky and crowded environments (RCE) contain abstract sources of risk and uncertainty, which are perceived differently by humans, leading to a variety of behaviors. Thus, robots deployed in RCEs, need to exhibit diverse perception and planning capabilities in order to interpret other human agents’ behavior and act accordingly in such environments. To understand this problem domain, we conducted a study to explore human path choices in RCEs, enabling better robotic navigational explainable AI (XAI) designs. We created a novel COVID-19 pandemic grocery shopping scenario which had time-risk tradeoffs, and acquired users’ path preferences. We found that participants showcase a variety of path preferences: from risky and urgent to safe and relaxed. To model users’ decision making, we evaluated three popular risk models (Cumulative Prospect Theory (CPT), Conditional Value at Risk (CVAR), and Expected Risk (ER). We found that CPT captured people’s decision making more accurately than CVaR and ER, corroborating theoretical results that CPT is more expressive and inclusive than CVaR and ER. We also found that people’s self assessments of risk and time-urgency do not correlate with their path preferences in RCEs. Finally, we conducted thematic analysis of open-ended questions, providing crucial design insights for robots is RCE. Thus, through this study, we provide novel and critical insights about human behavior and perception to help design better navigational explainable AI (XAI) in RCEs.

arxiv情報

著者 Aamodh Suresh,Angelique Taylor,Laurel D. Riek,Sonia Martinez
発行日 2023-03-15 00:11:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO パーマリンク