Grounding Complex Natural Language Commands for Temporal Tasks in Unseen Environments

要約

ナビゲーション コマンドを線形時相論理 (LTL) に固定すると、その明確なセマンティクスを活用して、長期的なタスクについて推論し、時間的制約が満たされていることを確認できます。
既存のアプローチでは、特定の環境と、その環境でのコマンドを理解するために自然言語で使用されるランドマークからのトレーニング データが必要です。
我々は、事前の言語データのない環境で時間ナビゲーション コマンドを LTL 仕様に準拠させるために大規模言語モデル (LLM) を活用するモジュラー システムおよびソフトウェア パッケージである Lang2LTL を提案します。
私たちは、明確に定義された 5 つの一般化動作に関して Lang2LTL を包括的に評価します。
Lang2LTL は、21 の都市規模の環境において、ナビゲーション コマンドをさまざまな時間仕様に統合する単一モデルの最先端の機能を実証します。
最後に、Lang2LTL を使用した物理ロボットが 2 つの屋内環境で 52 の意味的に多様なナビゲーション コマンドに従うことができることを実証します。

要約(オリジナル)

Grounding navigational commands to linear temporal logic (LTL) leverages its unambiguous semantics for reasoning about long-horizon tasks and verifying the satisfaction of temporal constraints. Existing approaches require training data from the specific environment and landmarks that will be used in natural language to understand commands in those environments. We propose Lang2LTL, a modular system and a software package that leverages large language models (LLMs) to ground temporal navigational commands to LTL specifications in environments without prior language data. We comprehensively evaluate Lang2LTL for five well-defined generalization behaviors. Lang2LTL demonstrates the state-of-the-art ability of a single model to ground navigational commands to diverse temporal specifications in 21 city-scaled environments. Finally, we demonstrate a physical robot using Lang2LTL can follow 52 semantically diverse navigational commands in two indoor environments.

arxiv情報

著者 Jason Xinyu Liu,Ziyi Yang,Ifrah Idrees,Sam Liang,Benjamin Schornstein,Stefanie Tellex,Ankit Shah
発行日 2023-10-17 18:21:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.FL, cs.RO パーマリンク