Large Language Models as Commonsense Knowledge for Large-Scale Task Planning

要約

自然言語は人間のコミュニケーションに自然なインターフェースを提供しますが、その抽象的な性質と固有のあいまいさのため、ロボットが理解するのは困難です。
大規模言語モデル (LLM) には、言語のあいまいさを解決し、抽象的な仕様に対する考えられる解決策を生成するのに役立つ常識的な知識が含まれています。
LLM は少数ショットの計画ポリシーとして期待されていますが、複雑なタスクを計画する潜在能力は十分に活用されていません。
この論文では、LLM が世界の常識モデルとしても、モンテカルロ ツリー検索 (MCTS) などの検索アルゴリズムにおけるヒューリスティック ポリシーとしても使用できることを示します。
MCTS は、より合理的な意思決定を促進するために、LLM からサンプリングされた可能性のある世界の状態を調査します。
LLM の常識的なポリシーにより、ツリーの関連部分への検索が誘導され、検索の複雑さが大幅に軽減されます。
私たちは、毎日のタスク計画実験でこの方法の有効性を実証し、LLM をポリシーとしてのみ使用する場合と比較したその利点を強調します。

要約(オリジナル)

Natural language provides a natural interface for human communication, yet it is challenging for robots to comprehend due to its abstract nature and inherent ambiguity. Large language models (LLMs) contain commonsense knowledge that can help resolve language ambiguity and generate possible solutions to abstract specifications. While LLMs have shown promise as few-shot planning policies, their potential for planning complex tasks is not fully tapped. This paper shows that LLMs can be used as both the commonsense model of the world and the heuristic policy in search algorithms such as Monte Carlo Tree Search (MCTS). MCTS explores likely world states sampled from LLMs to facilitate better-reasoned decision-making. The commonsense policy from LLMs guides the search to relevant parts of the tree, substantially reducing the search complexity. We demonstrate the effectiveness of our method in daily task-planning experiments and highlight its advantages over using LLMs solely as policies.

arxiv情報

著者 Zirui Zhao,Wee Sun Lee,David Hsu
発行日 2023-05-23 13:56:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク