Guessing human intentions to avoid dangerous situations in caregiving robots

要約

ロボットが社会的に対話するには、人間の意図を解釈し、その潜在的な結果を正確に予測する必要があります。
これは、人間のケアを目的として設計されたソーシャル ロボットにとって特に重要です。ソーシャル ロボットは、目に見えない障害物が目の前にあるなど、避けるべき人間にとって潜在的に危険な状況に直面する可能性があります。
この論文では、人間の意図を推論し解釈するための人工心の理論 (ATM) アプローチを検討します。
人間にとって危険な状況を検知し、その危険を取り除くロボットの行動をリアルタイムで選択するアルゴリズムを提案します。
当社は ATM にシミュレーションベースのアプローチを使用し、人々に意図と行動を割り当てる「like-me」ポリシーを採用しています。
この戦略を使用すると、ロボットは時間に制約のある状況でも高い確率で検出し、行動することができます。
このアルゴリズムは、既存のロボティクス認知アーキテクチャの一部として実装され、シミュレーション シナリオでテストされています。
実装の堅牢性、精度、リアルタイム応答をテストするために、シミュレートされたシナリオ、人間参加型ハイブリッド構成、現実世界のシナリオを含む 3 つの実験が行われました。

要約(オリジナル)

For robots to interact socially, they must interpret human intentions and anticipate their potential outcomes accurately. This is particularly important for social robots designed for human care, which may face potentially dangerous situations for people, such as unseen obstacles in their way, that should be avoided. This paper explores the Artificial Theory of Mind (ATM) approach to inferring and interpreting human intentions. We propose an algorithm that detects risky situations for humans, selecting a robot action that removes the danger in real time. We use the simulation-based approach to ATM and adopt the ‘like-me’ policy to assign intentions and actions to people. Using this strategy, the robot can detect and act with a high rate of success under time-constrained situations. The algorithm has been implemented as part of an existing robotics cognitive architecture and tested in simulation scenarios. Three experiments have been conducted to test the implementation’s robustness, precision and real-time response, including a simulated scenario, a human-in-the-loop hybrid configuration and a real-world scenario.

arxiv情報

著者 Noé Zapata,Gerardo Pérez,Lucas Bonilla,Pedro Núñez,Pilar Bachiller,Pablo Bustos
発行日 2024-03-24 20:43:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO パーマリンク