Tru-POMDP: Task Planning Under Uncertainty via Tree of Hypotheses and Open-Ended POMDPs

要約

実世界で活動するホームサービスロボットにとって、不確実性の下でのタスク計画は不可欠である。タスクには、曖昧な人間の指示、隠されたまたは未知のオブジェクトの位置、およびオープンボキャブラリーのオブジェクトタイプが含まれ、大きなオープンエンドの不確実性と無限に大きな計画空間をもたらす。このような課題に対処するために、我々は、大規模言語モデル(LLM)を用いた構造化信念生成と、原理的なPOMDP計画を組み合わせたプランナであるTru-POMDPを提案する。Tru-POMDPは階層的な仮説の木(Tree of Hypotheses:TOH)を導入し、LLMに体系的な問い合わせを行うことで、可能性のある世界状態と人間の目標に対する高品質な粒子信念を構築する。さらに、LLMが生成した仮説に対する厳密なベイズ信念追跡と効率的な信念空間計画を可能にするオープンエンドPOMDPモデルを定式化する。多様なキッチン環境における複雑な物体再配置タスクの実験により、Tru-POMDPは、最新のLLMベースおよびLLM-ツリー探索ハイブリッドプランナを大幅に凌駕し、より優れた計画、曖昧性やオクルージョンに対するより強い頑健性、およびより優れた計画効率により高い成功率を達成することが示された。

要約(オリジナル)

Task planning under uncertainty is essential for home-service robots operating in the real world. Tasks involve ambiguous human instructions, hidden or unknown object locations, and open-vocabulary object types, leading to significant open-ended uncertainty and a boundlessly large planning space. To address these challenges, we propose Tru-POMDP, a planner that combines structured belief generation using Large Language Models (LLMs) with principled POMDP planning. Tru-POMDP introduces a hierarchical Tree of Hypotheses (TOH), which systematically queries an LLM to construct high-quality particle beliefs over possible world states and human goals. We further formulate an open-ended POMDP model that enables rigorous Bayesian belief tracking and efficient belief-space planning over these LLM-generated hypotheses. Experiments on complex object rearrangement tasks across diverse kitchen environments show that Tru-POMDP significantly outperforms state-of-the-art LLM-based and LLM-tree-search hybrid planners, achieving higher success rates with significantly better plans, stronger robustness to ambiguity and occlusion, and greater planning efficiency.

arxiv情報

著者 Wenjing Tang,Xinyu He,Yongxi Huang,Yunxiao Xiao,Cewu Lu,Panpan Cai
発行日 2025-06-03 13:26:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.RO パーマリンク