要約
ベッドメイキングや朝食作りのような家事タスクを実行する支援エージェントは、多くの場合、一度に1つのタスクを達成するアクションを計算・実行する。しかし、今後のタスクを予測し、これらのタスクを共同で達成するアクションシーケンスを計算することで、効率を向上させることができる。タスク先読みのための最先端の手法は、データ駆動型ディープネットワークや大規模言語モデル(Large Language Models:LLM)を用いるが、それらは高レベルのタスクレベルで行われ、多くの学習例を必要とする。我々のフレームワークは、少数のプロンプトを通じてLLMの一般的な知識を活用し、高レベルのタスク予測を行う。予測されたタスクを古典的な計画システムにおけるゴールとして使用し、これらのゴールを共同で達成する、より細かい粒度のアクションシーケンスを計算する。我々は、VirtualHome環境における現実的なシナリオにおいて、我々のフレームワークの能力を評価し、今後のタスクを考慮しないシステムと比較して、実行時間が31%短縮されることを実証した。
要約(オリジナル)
Assistive agents performing household tasks such as making the bed or cooking breakfast often compute and execute actions that accomplish one task at a time. However, efficiency can be improved by anticipating upcoming tasks and computing an action sequence that jointly achieves these tasks. State-of-the-art methods for task anticipation use data-driven deep networks and Large Language Models (LLMs), but they do so at the level of high-level tasks and/or require many training examples. Our framework leverages the generic knowledge of LLMs through a small number of prompts to perform high-level task anticipation, using the anticipated tasks as goals in a classical planning system to compute a sequence of finer-granularity actions that jointly achieve these goals. We ground and evaluate our framework’s abilities in realistic scenarios in the VirtualHome environment and demonstrate a 31% reduction in execution time compared with a system that does not consider upcoming tasks.
arxiv情報
著者 | Raghav Arora,Shivam Singh,Karthik Swaminathan,Ahana Datta,Snehasis Banerjee,Brojeshwar Bhowmick,Krishna Murthy Jatavallabhula,Mohan Sridharan,Madhava Krishna |
発行日 | 2025-02-04 07:31:55+00:00 |
arxivサイト | arxiv_id(pdf) |