要約
ロボットタスクの計画では、大規模な言語モデル(LLM)は、複雑で長期のアクションシーケンスを生成することに大きな約束を示しています。
ただし、LLMSは、しばしばもっともらしいと聞こえるが正確ではない応答を生成することが観察されています。
これらの問題に対処するために、既存の方法は通常、事前に定義されたエラーセットまたは外部の知識ソースを採用しており、人間の努力と計算リソースを必要とします。
最近、LLMが計画を生成および改良し、それ自体でエラーを特定する自己修正アプローチが登場しました。
それらの有効性にもかかわらず、彼らは推論が不十分なため、修正の失敗になりやすいです。
この論文では、解釈可能性を高めるために逆促しを活用する新しい自己保護タスク計画アプローチであるInversePromptを紹介します。
私たちの方法には、明確で解釈可能なフィードバックを提供するための推論手順が組み込まれています。
最初に生成されたアクションに対応する逆アクションを生成し、これらの逆アクションがシステムを元の状態に復元できるかどうかを確認し、生成された計画の論理的一貫性を明示的に検証します。ベンチマークデータセットの結果は、既存のLLMベースのタスク計画方法よりも平均16.3%高い成功率を示しています。
私たちのアプローチは、実際の環境でのフィードバックに対するより明確な正当化を提供し、さまざまなシナリオにわたる既存の自己修正アプローチよりもタスクの完了が成功します。
要約(オリジナル)
In robot task planning, large language models (LLMs) have shown significant promise in generating complex and long-horizon action sequences. However, it is observed that LLMs often produce responses that sound plausible but are not accurate. To address these problems, existing methods typically employ predefined error sets or external knowledge sources, requiring human efforts and computation resources. Recently, self-correction approaches have emerged, where LLM generates and refines plans, identifying errors by itself. Despite their effectiveness, they are more prone to failures in correction due to insufficient reasoning. In this paper, we introduce InversePrompt, a novel self-corrective task planning approach that leverages inverse prompting to enhance interpretability. Our method incorporates reasoning steps to provide clear, interpretable feedback. It generates inverse actions corresponding to the initially generated actions and verifies whether these inverse actions can restore the system to its original state, explicitly validating the logical coherence of the generated plans.The results on benchmark datasets show an average 16.3% higher success rate over existing LLM-based task planning methods. Our approach offers clearer justifications for feedback in real-world environments, resulting in more successful task completion than existing self-correction approaches across various scenarios.
arxiv情報
著者 | Jiho Lee,Hayun Lee,Jonghyeon Kim,Kyungjae Lee,Eunwoo Kim |
発行日 | 2025-03-10 13:35:51+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google