要約
人間の環境で動作する場合、ロボットは社会規範を遵守し、個人の好みに対応しながら、複雑なタスクを処理する必要があります。
たとえば、常識的な知識に基づいて、家庭用ロボットは社交的な集まりの間は掃除機をかけるのを避けるべきだと予測できますが、来客の前か後どちらに掃除機をかけるべきかはまだ不確かかもしれません。
このような場合、人間の説明を通じて伝えられる常識的な知識と人間の好みを統合することは、基本的なことではありますが、既存のシステムにとっては課題です。
本稿では、社会的に適切なロボットの動作を生成しながら、これに対処する新しいアプローチである GRACE を紹介します。
GRACE は、大規模言語モデル (LLM) からの常識的な知識を活用し、生成ネットワーク アーキテクチャを通じてこの知識を人間による説明と統合します。
GRACE の双方向構造により、ロボットは人間の説明を利用して LLM 予測を洗練および強化することができ、ロボットは人間が指定したアクションに対してそのような説明を生成できるようになります。
私たちの実験による評価では、人間の説明を統合すると GRACE のパフォーマンスが向上し、いくつかのベースラインを上回り、合理的な説明が提供されることがわかりました。
要約(オリジナル)
When operating in human environments, robots need to handle complex tasks while both adhering to social norms and accommodating individual preferences. For instance, based on common sense knowledge, a household robot can predict that it should avoid vacuuming during a social gathering, but it may still be uncertain whether it should vacuum before or after having guests. In such cases, integrating common-sense knowledge with human preferences, often conveyed through human explanations, is fundamental yet a challenge for existing systems. In this paper, we introduce GRACE, a novel approach addressing this while generating socially appropriate robot actions. GRACE leverages common sense knowledge from Large Language Models (LLMs), and it integrates this knowledge with human explanations through a generative network architecture. The bidirectional structure of GRACE enables robots to refine and enhance LLM predictions by utilizing human explanations and makes robots capable of generating such explanations for human-specified actions. Our experimental evaluations show that integrating human explanations boosts GRACE’s performance, where it outperforms several baselines and provides sensible explanations.
arxiv情報
著者 | Fethiye Irmak Dogan,Umut Ozyurt,Gizem Cinar,Hatice Gunes |
発行日 | 2024-09-25 12:44:13+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google