Improved Inference of Human Intent by Combining Plan Recognition and Language Feedback

要約

会話支援ロボットは、人々、特に認知障害を持つ人々が、食事の調理、運動の実行、機械の操作などのさまざまなタスクを実行できるように支援します。
ただし、人間と効果的に対話するには、ユーザーが最適ではない行動をしている場合でも、ロボットは人間の行動のノイズの多い観察から人間の計画と目標を認識する必要があります。
計画としての計画と目標の認識 (PGR) に関するこれまでの研究では、階層タスク ネットワーク (HTN) を使用してアクター/人間をモデル化していました。
ただし、これらの技術は、言語などの自然な対話モードを介したユーザー関与がないため、不十分です。
さらに、ユーザー、特に認知障害のあるユーザーに、当初の計画からの逸脱や、目標に向けて取られた次善の行動について知らせる仕組みもありません。
我々は、部分的に観察可能な領域における計画と目標を認識するための新しいフレームワーク、つまり、ロボットがノイズの多いセンサーデータや最適ではない人間の行動について明確な質問をすることで、人間の進歩に対する信念を修正できるようにする、目標認識のための対話(D4GR)を提案します。
キッチン ドメインとブロック ドメインという 2 つのシミュレートされたドメインにわたって D4GR のパフォーマンスを評価します。
階層型タスク モデルの言語フィードバックと世界状態情報を使用して、最高のセンサー ノイズに対する D4GR フレームワークが、両方のドメインの目標精度において HTN よりも 1% 優れていることを示します。
計画の精度に関しては、HTN と比較して、D4GR はキッチン ドメインで 4%、ブロック ドメインで 2% 優れています。
ALWAYS-ASK オラクルは、目標認識において 3%、計画認識において 7% も当社のポリシーを上回っています。
D4GR は、オラクルのベースラインよりも 68% 少ない質問をすることでこれを実現します。
また、キッチン領域における現実世界のロボット シナリオを実証し、現実的な設定における D4GR の改善された計画と目標認識を検証します。

要約(オリジナル)

Conversational assistive robots can aid people, especially those with cognitive impairments, to accomplish various tasks such as cooking meals, performing exercises, or operating machines. However, to interact with people effectively, robots must recognize human plans and goals from noisy observations of human actions, even when the user acts sub-optimally. Previous works on Plan and Goal Recognition (PGR) as planning have used hierarchical task networks (HTN) to model the actor/human. However, these techniques are insufficient as they do not have user engagement via natural modes of interaction such as language. Moreover, they have no mechanisms to let users, especially those with cognitive impairments, know of a deviation from their original plan or about any sub-optimal actions taken towards their goal. We propose a novel framework for plan and goal recognition in partially observable domains — Dialogue for Goal Recognition (D4GR) enabling a robot to rectify its belief in human progress by asking clarification questions about noisy sensor data and sub-optimal human actions. We evaluate the performance of D4GR over two simulated domains — kitchen and blocks domain. With language feedback and the world state information in a hierarchical task model, we show that D4GR framework for the highest sensor noise performs 1% better than HTN in goal accuracy in both domains. For plan accuracy, D4GR outperforms by 4% in the kitchen domain and 2% in the blocks domain in comparison to HTN. The ALWAYS-ASK oracle outperforms our policy by 3% in goal recognition and 7%in plan recognition. D4GR does so by asking 68% fewer questions than an oracle baseline. We also demonstrate a real-world robot scenario in the kitchen domain, validating the improved plan and goal recognition of D4GR in a realistic setting.

arxiv情報

著者 Ifrah Idrees,Tian Yun,Naveen Sharma,Yunxin Deng,Nakul Gopalan,George Konidaris,Stefanie Tellex
発行日 2023-10-03 22:13:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.HC, cs.RO パーマリンク