Statler: State-Maintaining Language Models for Embodied Reasoning

要約

大規模言語モデル (LLM) は、ロボットが複雑なロボット推論タスクを実行できるようにする有望なツールを提供します。
ただし、現代の LLM のコンテキスト ウィンドウは限られているため、長期にわたる推論は困難になります。
家庭用ロボットが実行すると予想される具体化されたタスクでは、通常、プランナーがずっと前に取得した情報 (たとえば、ロボットが環境内で以前に遭遇した多くのオブジェクトの特性) を考慮する必要があります。
LLM の暗黙的な内部表現を使用して世界の状態を把握しようとする試みは、ロボットの行動履歴で利用可能なタスクおよび環境関連の情報が不足しているため複雑になりますが、LLM へのプロンプトを介して情報を伝達する能力に依存する方法は困難を伴います。
限定されたコンテキスト ウィンドウにアクセスします。
この論文では、LLM に世界の状態を時間の経過とともに維持される「記憶」の形式として明示的に表現するフレームワークである Statler を提案します。
Statler に不可欠なのは、ワールド ステートとインターフェイスし、ワールド ステートを維持する、一般的な LLM の 2 つのインスタンス (ワールド モデル リーダーとワールド モデル ライター) の使用です。
Statler は、この世界状態の「メモリ」へのアクセスを提供することで、コンテキストの長さの制約を受けることなく、より長い期間にわたって推論する既存の LLM の能力を向上させます。
我々は、シミュレートされた 3 つのテーブルトップ操作ドメインと実際のロボット ドメインに対するアプローチの有効性を評価し、LLM ベースのロボット推論における最先端の技術が向上することを示します。
プロジェクト Web サイト: https://statler-lm.github.io/

要約(オリジナル)

Large language models (LLMs) provide a promising tool that enable robots to perform complex robot reasoning tasks. However, the limited context window of contemporary LLMs makes reasoning over long time horizons difficult. Embodied tasks such as those that one might expect a household robot to perform typically require that the planner consider information acquired a long time ago (e.g., properties of the many objects that the robot previously encountered in the environment). Attempts to capture the world state using an LLM’s implicit internal representation is complicated by the paucity of task- and environment-relevant information available in a robot’s action history, while methods that rely on the ability to convey information via the prompt to the LLM are subject to its limited context window. In this paper, we propose Statler, a framework that endows LLMs with an explicit representation of the world state as a form of “memory” that is maintained over time. Integral to Statler is its use of two instances of general LLMs — a world-model reader and a world-model writer — that interface with and maintain the world state. By providing access to this world state “memory”, Statler improves the ability of existing LLMs to reason over longer time horizons without the constraint of context length. We evaluate the effectiveness of our approach on three simulated table-top manipulation domains and a real robot domain, and show that it improves the state-of-the-art in LLM-based robot reasoning. Project website: https://statler-lm.github.io/

arxiv情報

著者 Takuma Yoneda,Jiading Fang,Peng Li,Huanyu Zhang,Tianchong Jiang,Shengjie Lin,Ben Picker,David Yunis,Hongyuan Mei,Matthew R. Walter
発行日 2023-06-30 17:58:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.RO パーマリンク